张量分解及其在推荐系统中的应用

合集下载

矩阵分解在推荐系统的应用

矩阵分解在推荐系统的应用

矩阵分解在推荐系统的应用随着互联网的发展和电子商务的兴起,推荐系统逐渐成为用户获取信息和商品的重要途径。

推荐系统的核心目标是根据用户的历史行为和个人偏好,预测和推荐用户可能感兴趣的信息和商品。

为了实现准确的推荐,矩阵分解作为一种常用的方法被广泛应用在推荐系统中。

矩阵分解是一种数学方法,它将一个大的矩阵分解为两个较小的矩阵的乘积。

在推荐系统中,矩阵分解可以被用来对用户和商品之间的关系进行建模。

通过将用户-商品评分矩阵分解为用户特征矩阵和商品特征矩阵,推荐系统可以通过计算用户和商品之间的相似度来预测用户对未知商品的喜好程度。

首先,推荐系统需要收集用户的历史行为数据,例如用户购买记录、评分和点击行为等。

这些数据可以表示为一个稀疏的用户-商品评分矩阵,其中行表示用户,列表示商品,每个元素表示用户对商品的评分或行为。

然后,通过矩阵分解,可以将用户-商品评分矩阵分解为用户特征矩阵和商品特征矩阵。

用户特征矩阵是一个N×K的矩阵,其中N是用户的数量,K是特征的数量。

每一行表示一个用户,每一列表示一个特征。

特征可以是用户的年龄、性别、兴趣爱好等。

同样,商品特征矩阵是一个M×K的矩阵,其中M是商品的数量。

每一行表示一个商品。

通过计算用户特征矩阵和商品特征矩阵之间的相似度,推荐系统可以预测用户对未知商品的评分。

矩阵分解的优势在于它可以充分利用用户和商品之间的隐含关系。

通过分解用户-商品评分矩阵,推荐系统可以挖掘用户和商品的潜在特性,从而更好地理解用户的偏好和商品的特点。

此外,矩阵分解还可以减轻数据稀疏性问题,因为通过用户特征矩阵和商品特征矩阵的乘积,可以填充原始评分矩阵中的缺失值。

矩阵分解在推荐系统中的应用不仅限于常见的商品推荐,还可以扩展到其他领域。

例如,在电影推荐系统中,矩阵分解可以用来为用户推荐适合其口味的电影。

在社交网络中,矩阵分解可以用来预测用户之间的社交关系。

此外,矩阵分解还可以应用在音乐推荐、新闻推荐和广告推荐等多个领域。

随机映射和张量分解方法在推荐系统中的应用研究

随机映射和张量分解方法在推荐系统中的应用研究

随机映射和张量分解方法在推荐系统中的应用研究下载温馨提示:该文档是我店铺精心编制而成,希望大家下载以后,能够帮助大家解决实际的问题。

文档下载后可定制随意修改,请根据实际需要进行相应的调整和使用,谢谢!本店铺为大家提供各种各样类型的实用资料,如教育随笔、日记赏析、句子摘抄、古诗大全、经典美文、话题作文、工作总结、词语解析、文案摘录、其他资料等等,如想了解不同资料格式和写法,敬请关注!Download tips: This document is carefully compiled by the editor. I hope that after you download them, they can help you solve practical problems. The document can be customized and modified after downloading, please adjust and use it according to actual needs, thank you!In addition, our shop provides you with various types of practical materials, such as educational essays, diary appreciation, sentence excerpts, ancient poems, classic articles, topic composition, work summary, word parsing, copy excerpts, other materials and so on, want to know different data formats and writing methods, please pay attention!推荐系统是如今互联网应用中普遍存在的一种服务,它可以根据用户的历史行为和兴趣来向用户推荐相关内容,从而提高用户体验和服务精准度。

使用tensorly进行cp分解的算法原理_概述说明

使用tensorly进行cp分解的算法原理_概述说明

使用tensorly进行cp分解的算法原理概述说明1. 引言1.1 概述在大数据时代,数据量的爆炸性增长给数据分析和处理带来了巨大挑战。

高维张量是一种常见的数据结构,例如多维数组或矩阵。

传统的分解方法无法有效地处理高维张量,并且会导致计算复杂度的急剧增加。

因此,开发一种高效、准确的分解方法变得至关重要。

本文将介绍CP(CANDECOMP/PARAFAC)分解算法及其原理,并通过使用Tensorly库来实现该算法。

CP分解是一种常用的高维张量分解方法,可以将一个高阶张量表示为多个低阶核张量的叠加形式,从而更好地表达和理解数据中隐藏的模式。

1.2 文章结构本文按以下内容组织:引言:简述文章背景和目的;CP分解简介:介绍CP分解概念及其应用领域;Tensorly库介绍:对T ensorly库进行功能和特点介绍,并提供使用方法简介;CP分解算法原理详解:详细说明CP分解的步骤、示意图以及算法原理;实例与应用案例分析:通过实例案例和应用案例进行进一步探讨与验证;结论与展望:总结文章内容,并展望CP分解在未来的发展方向。

1.3 目的本文的主要目的是全面介绍使用Tensorly库进行CP分解的算法原理。

通过对CP分解算法及其原理的详细阐述,读者将能够更好地理解和应用该方法来处理高维张量数据。

通过实例与应用案例的分析,读者还可以进一步探索和了解CP 分解在不同领域中的实际应用。

最后,本文将对相关内容进行总结,并提出对CP分解方法未来发展的展望。

2. CP分解简介2.1 引言CP分解是一种用于高维数据分析的矩阵分解技术,也被称为CANDECOMP/PARAFAC(CP)分解。

它是由Carroll和Andre de Carvalho 等人于1970年提出的,广泛应用于多元数据分析、信号处理、计算机视觉等领域。

CP分解可以将一个高阶张量表示为若干低秩张量的叠加,从而实现对原始数据的有效表示和降维。

2.2 CP分解概述CP分解的核心思想是将一个高阶张量表示为多个低秩张量的叠加。

矩阵分解在推荐系统中的应用

矩阵分解在推荐系统中的应用

矩阵分解在推荐系统中的应用推荐系统是一种根据用户的历史行为和偏好,向用户推荐可能感兴趣的物品或内容的技术。

在互联网时代,推荐系统已经成为了许多网站和应用的重要组成部分。

而矩阵分解则是推荐系统中一种常用的算法,它通过将用户-物品评分矩阵分解为两个低秩矩阵的乘积,来发现用户和物品之间的潜在关系,从而进行推荐。

矩阵分解在推荐系统中的应用可以追溯到2006年Netflix举办的推荐系统比赛。

当时,Netflix提供了一份包含大量用户对电影评分的数据集,参赛者需要通过这个数据集构建一个能够准确预测用户对电影评分的推荐系统。

矩阵分解算法由此应运而生,并在比赛中取得了很好的效果。

矩阵分解的基本思想是将用户-物品评分矩阵分解为两个低秩矩阵的乘积,即将用户和物品分别映射到一个低维空间中的向量。

这样,用户和物品之间的相似度可以通过计算向量之间的内积来表示。

例如,对于一个用户u和一个物品i,它们的评分可以通过计算向量u和向量i的内积来预测。

在实际应用中,矩阵分解算法通常使用梯度下降等优化方法来求解。

通过不断迭代更新用户和物品向量,使得预测评分与真实评分之间的误差最小化。

这样,就可以得到一个准确预测用户对物品评分的模型。

矩阵分解在推荐系统中的应用不仅限于电影推荐,还可以应用于音乐推荐、商品推荐等各种领域。

例如,在音乐推荐中,可以将用户-歌曲播放次数矩阵进行分解,从而发现用户和歌曲之间的潜在关系,进而向用户推荐他们可能喜欢的歌曲。

在商品推荐中,可以将用户-商品购买记录矩阵进行分解,从而向用户推荐他们可能感兴趣的商品。

除了基本的矩阵分解算法,还有一些改进的算法被提出来应对推荐系统中的一些挑战。

例如,隐语义模型(Latent Semantic Model)将用户-物品评分矩阵分解为两个低秩矩阵的加权和,通过引入隐含的语义信息来提高推荐的准确性。

而基于图的矩阵分解算法则利用用户和物品之间的社交关系或者内容关系来改进推荐结果。

尽管矩阵分解在推荐系统中取得了很好的效果,但是它也存在一些局限性。

PMUS-HOSGD张量分解方法及其在标签推荐中的应用

PMUS-HOSGD张量分解方法及其在标签推荐中的应用

PMUS-HOSGD张量分解方法及其在标签推荐中的应用杨林;顾军华;官磊;张宇娟;彭玉青【期刊名称】《计算机工程》【年(卷),期】2018(044)011【摘要】目前的标签推荐系统使用张量来存储“用户-资源-标签”三维数据,以挖掘三者之间潜在的语义关联.为更好地解决三维数据的稀疏性问题,避免张量填充造成的数据失真,提出基于标签惩罚机制的张量构建方法PMUS和基于随机梯度下降的张量分解方法HOSGD.利用标签惩罚机制和用户评分构建张量,使用随机梯度下降法对张量的展开矩阵进行分解.在此基础上,结合PMUS和HOSGD提出PMUS-HOSGD算法对数据进行处理,根据结果为用户进行个性化标签推荐.在数据集MovieLens上的实验结果表明,与CubeALS、HOSVD和CF算法相比,该算法能够有效提高标签推荐的准确率.【总页数】7页(P300-305,312)【作者】杨林;顾军华;官磊;张宇娟;彭玉青【作者单位】河北工业大学计算机科学与软件学院,天津300400;河北工业大学河北省大数据重点实验室,天津300400;河北工业大学计算机科学与软件学院,天津300400;河北工业大学河北省大数据重点实验室,天津300400;河北工业大学计算机科学与软件学院,天津300400;河北工业大学河北省大数据重点实验室,天津300400;河北工业大学计算机科学与软件学院,天津300400;河北工业大学河北省大数据重点实验室,天津300400;河北工业大学计算机科学与软件学院,天津300400;河北工业大学河北省大数据重点实验室,天津300400【正文语种】中文【中图分类】TP311【相关文献】1.基于成对交互张量分解的标签推荐 [J], LU Yanan;DU Dongfang2.基于多元关系的张量分解标签推荐方法 [J], 曾辉; 胡强; 淦修修3.基于张量分解的排序学习在个性化标签推荐中的研究 [J], 杨洋;邸一得;刘俊晖;易超;周维4.一种融合时间权重的张量分解标签推荐模型 [J], 汪涛;潘芳;潘郁;朱晓峰5.基于改进鱼群算法与张量分解的社会化标签推荐模型 [J], 张浩;何杰;李慧宗因版权原因,仅展示原文概要,查看原文内容请购买。

稀疏张量分解

稀疏张量分解

稀疏张量分解稀疏张量分解是一种高效处理大规模数据集的方法。

在计算机科学和机器学习领域,大规模的数据集是常见的。

这些数据集通常包含大量的特征和样本,处理起来非常耗时和耗资源。

稀疏张量分解的目的就是通过对数据进行压缩和降维,提高计算效率和节省存储空间。

稀疏张量是一种特殊的张量,它的大部分元素都是0。

与稠密张量不同,稀疏张量只存储非零元素的位置和值,而将零元素省略掉。

这种方式能够大幅减少存储空间的占用,尤其在处理大规模数据集时,效果更为明显。

稀疏张量分解是将一个稀疏张量分解成多个较小的稀疏张量的过程。

这种分解方法可以通过降维和特征提取来实现。

首先,对原始稀疏张量进行降维,将其表示为一个低秩的近似张量。

然后,通过特征提取方法,将近似张量进一步分解为更小的稀疏张量。

稀疏张量分解有很多应用。

在推荐系统中,稀疏张量分解可以用于对用户的行为和偏好进行建模,从而提高推荐的准确性和个性化程度。

在图像处理中,稀疏张量分解可以用于图像压缩和去噪,减少存储和传输的成本。

在自然语言处理中,稀疏张量分解可以用于对文本进行主题建模和情感分析,从而提取有用的信息和知识。

稀疏张量分解的方法有很多,常用的包括奇异值分解(SVD)、非负矩阵分解(NMF)和张量分解机(TF),每种方法都有其适用的场景和特点。

奇异值分解是一种经典的分解方法,可以得到最优的低秩近似。

非负矩阵分解是一种常用的分解方法,适用于具有非负性约束的数据集。

张量分解机是一种新兴的分解方法,适用于处理高维度和稀疏性较高的数据集。

稀疏张量分解虽然能够提高计算效率和节省存储空间,但也存在一些挑战和限制。

首先,稀疏张量分解的计算复杂度较高,需要消耗大量的时间和计算资源。

其次,稀疏张量分解的结果可能会引入一定的信息损失,影响模型的性能和准确性。

此外,稀疏张量分解的方法和参数选择也需要一定的经验和技巧,不同的数据集和任务可能需要不同的处理方式。

稀疏张量分解是一种高效处理大规模数据集的方法。

张量理论与张量分析的应用

张量理论与张量分析的应用

计算方法:通过对张量的分量进行 变换和组合,可以计算出张量的对 称性。
添加标题
添加标题
添加标题
添加标题
分类:根据对称性的不同,可以将 张量分为不同类型,如对称张量、 反对称张量等。
应用:张量的对称性分析在物理学、 工程学等领域有着广泛的应用,如 弹性力学、流体力学等。
定义:特征值是线性变换下的不变量,特 征向量是线性变换下的向量。
描述张量在环境科学中的具体应用场景 介绍张量在环境科学中的重要性和作用 分析张量在环境科学中的优势和局限性 探讨张量在环境科学中的未来发展方向
汇报人:XX
添加项标题
张量分析在数据科学中的应用:利用张量分析的方法对多维数 据进行处理、分析和挖掘
添加项标题
张量在数据降维中的应用:通过张量分解等方式降低数据的维 度,提高处理效率和可解释性
添加项标题
张量在数据分类和聚类中的应用:利用张量表示的数据结构对 数据进行分类和聚类,提高分类和聚类的准确性和稳定性
XX,a click to unlimited possibilities
汇报人:XX
CONTENTS
PART ONE
PART TWO
张量是一个数学概 念,用于描述物理 现象中的多维数据
张量具有标量、向 量和矩阵等基本数 学对象的性质
张量可以表示物理 量在不同参考系下 究电磁场、电流 密度等物理量
振动分析:用于研 究结构的振动特性、 频率响应等
金融数据分析:利用张量进行多维数据分析,挖掘金融市场的潜在规律和趋势。 风险评估:利用张量模型评估金融市场的风险,为投资决策提供支持。 预测模型:利用张量构建时间序列预测模型,预测经济指标和金融市场的走势。 营销策略:利用张量分析消费者的购买行为和偏好,制定更精准的营销策略。

张量块向分解

张量块向分解

张量块向分解1. 引言张量是线性代数中的重要概念,它在数学、物理、工程等领域中具有广泛的应用。

张量块是由多个张量组成的复合结构,也称为高阶张量。

在某些情况下,我们可能需要将张量块进行分解,以便更好地理解和处理数据。

本文将介绍张量块的概念和分解方法,并探讨其在实际应用中的意义和效果。

2. 张量块的定义张量块是由多个张量按照一定规律排列组合而成的结构。

它可以看作是一个多维数组,每个维度都对应一个张量。

例如,一个二维张量块可以表示为:[[T1, T2],[T3, T4]]其中T1、T2、T3和T4分别是四个二维张量。

张量块可以有任意多的维度,每个维度可以有任意多的张量。

3. 张量块的分解方法张量块的分解方法有很多种,常用的方法包括SVD分解、CP分解和Tucker分解。

这些方法可以将张量块分解成更简单的子结构,从而方便后续的处理和分析。

3.1 SVD分解SVD(Singular Value Decomposition)是一种常用的张量块分解方法。

它将张量块分解为三个矩阵的乘积,即:A = U * Σ * V^T其中A是待分解的张量块,U、Σ和V分别是三个矩阵。

U和V是正交矩阵,Σ是对角矩阵。

SVD分解可以将张量块的信息压缩到较低维度的矩阵中,从而减少数据的存储和计算量。

3.2 CP分解CP(Canonical Polyadic)分解是另一种常用的张量块分解方法。

它将张量块分解为多个张量的线性组合,即:A = sum(lambda_i * [u1_i, u2_i, ..., un_i])其中A是待分解的张量块,lambda_i是权重系数,u1_i、u2_i、…、un_i是一组张量。

CP分解可以将张量块分解为一组低秩张量的线性组合,从而提取出张量块中的主要特征。

3.3 Tucker分解Tucker分解是一种综合了SVD和CP分解的张量块分解方法。

它将张量块分解为一个核张量和一组模态张量的乘积,即:A = G * [U1, U2, ..., Un]其中A是待分解的张量块,G是核张量,U1、U2、…、Un是一组模态张量。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

张量分解及其在推荐系统中的应用代 翔(中国西南电子技术研究所,四川 成都 610036)摘 要:在异构信息网络下往往会产生纷繁复杂的数据,这些数据常用一种被称为张量的新的形式来表示。

但是由于这些数据中缺失值较多,存在一定的稀疏性,因此需要对张量进行分解,恢复缺失值,找出多元数据之间潜在的关系。

张量分解是推荐系统中一种重要的方法,在推荐系统中应用张量分解,可以挖掘出潜在关系,给用户带来更好的推荐体验。

笔者以数据挖掘为引,研究了张量分解及其在推荐系统中的应用,并根据当下的研究热点问题提出了未来张量分解在推荐领域的应用方向和发展趋势。

关键词:数据挖掘;异构信息网络;张量分解;矩阵分解;推荐系统中图分类号:TP391 文献标识码:A 文章编号:1003-9767(2016)22-034-041 引言在这个信息网络高度发达的时代,各个领域时刻都会产生大量的、纷繁复杂的数据,而这些数据之间往往呈现一些潜在的联系,数据挖掘领域就是为了挖掘这些数据之间的联系。

数据是伴随许多对象而产生的,把这些不同的对象抽象为图上一个个节点,对象之间用线连接起来,则构成了相互连接的网络。

网络下产生的数据用张量来表示,由于数据往往是稀疏的,为了解释数据之间联系,需要对张量进行分解。

张量分解最常用的分解方法是CP分解和Tucker分解,当然还有很多其他分解的方法,如INDSCAL[1]、PARAFAC2[2]、CANDELINC[3]、DEDICOM[4]和PARATUCK2[5-6]等。

张量分解后会产生一些潜在的因子,通过分析这些潜在的因子,就可以得出分解前数据之间的关联程度,即找出数据间内在的联系。

推荐系统就是针对蕴含着多源异构信息的复杂网络来向用户推荐所需物品的一个研究领域。

推荐系统是“利用电子商务网站向客户提供商品信息和建议,帮助用户决定应该购买什么产品,模拟销售人员帮助客户完成购买过程”[7]。

可以理解为推荐系统就是向用户推荐商品、电影、饮食、旅游地点等一些生活信息的系统,这些推荐信息可能是用户潜在感兴趣的,或者是用户可能需要的。

推荐系统中总是存在着多元关系,例如用户-电影院-电影。

如果想得到用户在某电影院看某场电影的观影感受大致评分,那么电影院的设施和电影本身都可能会影响用户的体验效果。

一般情况下,这样的三元关系中只有部分关系有数据记录,即现实生活中只有部分用户对某些影院的个别电影参与评分,大多数关系是没有数据记录的,但是我们想要得到有些缺失的数据记录,进而为用户推荐影院电影怎么办呢?方法就是用张量分解的方式,将原空间中的关系映射到低维空间,利用这些潜在因子中恢复出原张量的近似张量,近似张量能恢复出缺失的数据,从而给出原张量中一些潜在关系量的解释。

这样用户可以以这些近似的评分作参考,决定要不要去某电影院看某场电影。

2 异构信息网络我们生活的世界可以看作是一个复杂的大规模网络,网络中有不计其数的节点,这些节点可以是人、动物、植物这些生命个体,也可是计算机、建筑等无生命的实体。

节点与节点之间往往都存在一定的联系,即节点与节点之间往往都有交互。

在复杂的大规模网络下,又存在众多的小规模网络,例如我们日常生活轨迹就能构成许多小规模网络,譬如人-工作-就餐。

这些网络中往往蕴含着大量的信息,我们称之为信息网络。

比如,每个人在工作后的就餐时间,要选择吃饭地点吃饭,那么他日常生活区域中的饭店都有可能成为他的潜在吃饭地点,但是个人口味的不同以及周围人对饭店的评价都会影响到就餐地点的选择。

因此,对每个人来说,总有一些饭店会成为潜在的吃饭地点;对每一个饭店来说,总有一些人会成为潜在的客户。

挖掘这些潜在的联系成为当今信息网络的热门话题,信息网络分析得到了不同学科研究者广泛的关注,例如计算机科学、社会科学、物理学等[8]。

信息网络的节点被看成现实中一个个对象,节点与节点之间的链接则是对象之间的交互。

如果信息网络对象和链接的类型是相同的,或者认为一种类型的对象只对应一种类型的链接,则称此网络是同构信息网络;如果信息网络对象以及链接的类型是不同的,则称此网络是异构信息网络[8-9]。

实际生活中,异构信息网络广泛存在,因为网络中对象通常是不同的组分,例如社交网络:每个用户通常对应着文字信息、作者简介:代翔(1983-),男,河南信阳人,博士研究生,工程师。

研究方向:自然语言处理、数据挖掘等。

图1 三阶张量分解的核心是将张量A分解成若干秩一张量近似和:(2)(N)...u u其中,秩一张量的定义是:当一个张量A…,u(N)外积时,A=u(1),u(2),…,u(N张量是秩一张量。

其中,°是向量的外积。

分解如图2所示:图2 CP分解3.3 Tucker分解张量的Tucker分解是将其近似表示成一个核心张量与N 个矩阵的模积,即:A≈S×1A×2B×3C(2)其中,S∈R I1×I2×I3是核心张量;A∈R I1×N、B∈R I2×M B、图3 Tucker分解值得注意的是,CP分解和Tucker分解相辅相成,各有特色,CP分解模型可以看作是Tucker分解模型的特例,更精简,更便于操作。

CP分解公式也可表示为如下形式的Tucker分解:123B CA A≈ℑ×××(3)其中I I IR××ℑ∈为单位张量,I为各个维度的潜因子特征数。

图4 用户-电影-相关信息张量5 张量分解在推荐领域的应用前景在数据量日益增加的今天,大量数据中蕴含的信息更加1980,45(1):3-24.[4] Harshman R A. Models for analysis of asymmetrical relationships among N objects or stimuli[C]//First Joint Meeting of the Psychometric Society and the Society for Mathematical Psychology.Ontario,1978.[5] Harshman R A, Lundy M E. Uniqueness proof for a family of models sharing features of Tucker's three-mode factor analysis and PARAFAC/CANDECOMP[J]. Psychometrika, 1996,61(1):133-154.[6] Kolda T G, Bader B W. Tensor decompositions and applications[J]. SIAM review, 2009,51(3):455-500.[7] ResinickP,Varian H R.Recommender systems[J]. Communications of the ACM, 1997,40(3):56-58.[8] Shi C, Li Y, Zhang J, et al. A Survey of Heterogeneous Information Network Analysis[J].IEEE Transactions on Knowledge & Data Engineering,2015,29(12):87-99.[9] Cai D, Shao Z, He X, et al. Mining hidden community in heterogeneous social networks[C]//Proceedings of the 3rd international workshop on Link discovery. ACM, 2005: 58-65.[10] Feldman R. Link analysis: Current state of the art[J]. Tutorial at the KDD, 2002.[11] Wasserman S, Faust K. Social network analysis: Methods and applications[M]. Cambridge:Cambridge university press, 1994.[12] Otte E, Rousseau R. Social network analysis: a powerful strategy, also for the information sciences[J]. Journal of information Science, 2002,28(6):441-453.[13] D. J. Cook,L. B. Holder.Graph-based data mining[J]. Intelligent Systems & Their Applications IEEE, 2000,15(2):32-41.[14] Eldén L. Matrix methods in data mining and pattern recognition[M]. SIAM:Society for Industrial and Applied Mathematics,2007.[15] Zhang T, Golub G H. Rank-one approximation to high order tensors[J]. SIAM Journal on Matrix Analysis and Applications, 2001,23(2):534-550.[16] De Lathauwer L, De Moor B, Vandewalle J. A multilinear singular value decomposition[J]. SIAM journal on Matrix Analysis and Applications, 2000,21(4):1253-1278.[17] De Lathauwer L, De Moor B, Vandewalle J. On the best rank-1 and rank-(r 1, r 2,...,rn) approximation of higher-order tensors[J]. SIAM Journal on Matrix Analysis and Applications, 2000,21(4):1324-1342.[18] Adomavicius G, Tuzhilin A. Toward the next generation of recommender systems: A survey of the state-of-the-art and possible extensions[J].IEEE Transactions on Knowledge & Data Engineering, 2005,17(6):734-749.[19]许海玲,吴潇,李晓东,等.互联网推荐系统比较研究[J].软件学报,2009,20(2):350-362.[20] Karatzoglou A, Amatriain X, Baltrunas L, et al. Multiverse recommendation: n-dimensional tensor factorization for context-aware collaborative filtering[C]//Proceedings of the fourth ACM conference on Recommender systems. ACM, 2010:79-86.[21] Gunawardana A, Shani G. A survey of accuracy evaluation metrics of recommendation tasks[J]. The Journal of Machine Learning Research, 2009,10(10):2935-2962.[22]M e l v i l l e P,M o o n e y R J,N a g a r a j a n R. Content-boosted collaborative filtering for improved recommendations[C]//Eighteenth National Conference on Artificial Intelligence,2002:187-192.[23] Resnick P, Iacovou N, Suchak M, et al. GroupLens: an open architecture for collaborative filtering of netnews[C]// Proceedings of the 1994 ACM conference on Computer supported cooperative work. ACM, 1994:175-186.[24] Sarwar B, Karypis G, Konstan J, et al. Item-based collaborative filtering recommendation algorithms[C]// Proceedings of the 10th international conference on World Wide Web. ACM, 2001:285-295.[25] Kautz H, Selman B, Shah M. Referral Web: combining social networks and collaborative filtering[J]. Communications of the ACM, 1997,40(3):63-65.[26]李乐,章毓晋.非负矩阵分解算法综述[J].电子学报,2008,36(4):737-743.[27] Zhang Y, Lai G, Zhang M, et al. Explicit factor models for explainable recommendation based on phrase-level sentiment analysis[C]//Proceedings of the 37th international ACM SIGIR conference on Research & development in information retrieval. ACM, 2014:83-92.[28] Wu Y, Ester M. Flame: A probabilistic model combining aspect based opinion mining and collaborative filtering[C]//Proceedings of the Eighth ACM International Conference on Web Search and Data Mining. ACM, 2015:199-208.。

相关文档
最新文档