WindTom 技术、生活

基于深度学习思想的个性化推荐系统和框架


个性化推荐将是深度学习最重要的应用之一


original article from here

正如Suvash Sedhain 提到,深度学习最近被应用到了个性化推荐。他在NIPs提到的工作被用于Spotify的一个实验中(见Recommending music on Spotify with deep learning)。最近Spotify上还有一个实验将Recurrent Neural Networks用于基于协同过滤的个性化推荐(Recurrent Neural Networks for Collaborative Filtering)。同样在音乐领域,谷歌发布了使用深度学习方法学习标签用于推荐的方法(Page on ismir.net

在其他领域,当我在Netflix的时候,我们描述了一个分布式ANN结构(distributed Neural Networks with GPUs in the AWS Cloud)


最近出现的方法有使用Deep content based的音乐推荐方法发表于NIPs2013)。该方法的主要思想是首先用传统矩阵因子化(Matix factorization)方法学习生成用户和物品因子,然后学习一个深度卷积网络,将音频特征作为输入,对应的物品潜在因子作为输出。所以,他们是使用深度卷积网络学习一个将物品内容特征映射到MF潜在因子的方法。最后,还是按照标准MF方法进行推荐(物品和用户潜在因子的乘积)。这种方法在冷启动时非常有效,冷启动时仅有很少的针对物品的用户行为,物品潜在因子可以从其内容中生成。

有篇文章提到在Netflix prize数据集上使用受限的Boltzmann machines。该文“future extension”章节讨论了在Netflix prize数据集上使用深度模型的几种可能方法。此外,Edwin Chen在博客中详细介绍了一个基于RBM的协同过滤推荐方法。

Chris Nicholson开发了deeplearning4j项目。

Domonkos Tikk最近出品一篇RNN session-based 推荐算法,提交给ICLR 2016。他将RNN应用于实际推荐系统,使用的数据为短期,而不是长期历史数据。这是一个典型的冷启动问题,算法经证明较矩阵因子化更为精确。

这里有两篇文章(Page on ucsc.edu,Page on arxiv.org)将深度学习和RBM(restricted Boltzmann machine)应用在协同推荐里。

Ali Mamdouh Elkahky将深度学习用于微软的新闻和Apps推荐,效果较好。


谷歌新开源–宽度&深度学习框架:结合记忆和归纳实现更优推荐

人类的大脑能够通过记忆日常生活的种种事件形成规则,并归纳这些学习以应用到我们从未见过的事务上。当我们探索推荐机器智能的方法将深度神经网络(用于归纳)与宽线性模型(用于记忆)联合进行训练,对带有稀疏输入的一般大规模回归和分类问题(带有大量可能特征值的类别特征)很有用,比如推荐系统、搜索和排名问题。

对推荐系统而言,记忆形成和归纳两者都非常重要,使用产品间的特征转换,宽线性模型能有效记忆稀疏特征交互,同时深度神经网络能通过低维度嵌入推广到先前未见过的特征交互。宽度&深度学习框架结合了这两类模型的优势。在大型的商业应用商店Google Play推荐系统上对这一框架进行了投入产品的测试以及评估。在线测试结果显示宽度&深度学习模型相比于单一的宽度或者深度模型,在应用购买上有了极大的改进。

谷歌将其宽度&深度学习实现方法作为Tensor Flow Learn API的一部分进行了开源。

源码地址:地址1

教程地址:

地址2 地址3


作者:谷文栋 链接:https://www.zhihu.com/question/20830906/answer/104390007

毋庸质疑,推荐系统将成为 Deep Learning 最重要的应用领域之一。

也许是最早的,算是与 Deep Learning 沾点儿边的推荐算法,是在 Netflix Prize 竞赛后半程异军突起的Restricted Boltzmann Machine(RBM)算法。当时以 SVD++ 为核心的模型几乎已经陷入了僵局,大家基本进入到了比拼trick与融合模型数量的体力活阶段了。RBM 的出现推动整个竞赛上了一个新台阶,相关的论文「Restricted Boltzmann Machines for Collaborative Filtering」在此[1]。但 RBM 本身大家并不认为和 Deep Learning 有太大关系,因为它太“浅”了,官方论文里面最后也提到了RBM一个重要的扩展方向就是”Learning Deep Generative Models”。Netflix 在2014年发表了一篇结合使用GPU和AWS搞分布式神经网络的博客"Distributed Neural Networks with GPUs in the AWS Cloud" [2],昭告了一下除 Google 之外他们在 deep learning领域也不容小觑,然而并没有透露太多的应用细节。再多说几句 Netflix Prize,有关 Netflix Prize 对 Netflix Recommendation 带来的改变,可以看看 Netflix 自己的官方博客[3][4],这几乎也可以看做是推荐系统领域最佳的入门资料。关于RBM,对工业界同学们更具参考价值的是Edwin Chen的这篇"Introduction to Restricted Boltzmann Machines" [5],更浅显易懂,还有开源代码实现。然后就是最近,有人号称使用 deep learning取得了比Netflix Prize大奖方案更好的结果 [6]

其他一些值得看看的内容:

音乐是deep learning适合发挥优势的领域之一,与Spotify相关的deep learning应用有两篇报导,一篇是”Recommending music on Spotify with deep learning” [7] 很详尽,另外一篇是把deep learning与经典的collaboritive filtering结合的尝试,”Recurrent Neural Networks for Collaborative Filtering”[8]。

Google 也发表了一篇音乐相关的 deep learning 论文,”Temporal Pooling and Multiscale Learning for Automatic Annotation and Ranking of Music Audio” [9]。 Netflix 的一位算法研究员作为作者之一的”Session-based Recommendations with Recurrent Neural Networks” [10]

基于 deeplearning4j 的一个推荐引擎”The WellDressed Recommendation Engine”[11],据说,使用了这个玩意儿的电商网站把 ad coverage 提升了200%。

微软同学在 WWW2015 上的一篇文章,”A Multi-View Deep Learning Approach for Cross Domain User Modeling in Recommendation Systems” [12],讲在新闻和应用推荐领域使用deep learning的一些心得。

最后重磅推荐,Netflix 前推荐引擎总监 Xavier Amatriain 在 KDD2014 上的压轴分享,”The Recommender Problem Revisited” [13],得认真啃一啃。

今年的 RecSys 会议,将会第一次专门针对 Deep Learning 与 Recommender Systems 设立一个专门的 workshop,将于今年9月15日在 Boston 举办,[14]这里是一些方向性的题目,有启发。

另外,就是 Amazon 刚刚宣布开源了 DSSTNE – Deep Scalable Sparse Tensor Network Engine,DSSTNE 是 Amazon 用来开发深度学习模型的一套框架,Amazon 最新的推荐引擎就在使用 DSSTNE。我在知乎专栏里发表了一篇相关介绍"关于Amazon开源的深度学习框架DSSTNE",看这一篇就够了! - ResysChina - 知乎专栏」

参考资料:

[1] cs.utoronto.ca/~hinton
[2] techblog.netflix.com/2014
[3] techblog.netflix.com/2012
[4] techblog.netflix.com/2012
[5] Introduction to Restricted Boltzmann Machines
[6] Deep learning solution for netflix prize
[7] Recommending music on Spotify with deep learning
[8] erikbern.com/wordpress
[9] ismir2011.ismir.net
[10] arxiv.org/abs/1511.06939
[11] The WellDressed Recommendation Engine
[12] msr-waypoint.com/pubs
[13] The Recommender Problem Revisited
[14] Call for papers




Comments