本文做为对推荐引擎的初步介绍的一篇导论性的文章,将略去大部分的具体细节,侧重用最简单的语言简要介绍推荐引擎的工做原理以及其相关算法思想,且为了着重浅显易懂有些援引自本人1月7日在微博上发表的文字(特意整理下,方便往后随时翻阅),尽可能保证本文的短小。不过,事与愿违的是,文章后续补充完善,越写越长了。html
同时,本文全部相关的算法都会在往后的文章一一陆续具体阐述。本文但求微言导论,往后但求具体而论。如有任何问题,欢迎随时不吝赐教或批评指正。谢谢。python
推荐引擎尽最大努力的收集尽量多的用户信息及行为,所谓广撒网,勤捕鱼,而后“特别的爱给特别的你”,最后基于类似性的基础之上持续“给力”,原理以下图所示(图引自本文的参考资料之一:探索推荐引擎内部的秘密):web
推荐引擎根据不一样依据以下分类:面试
只是问题是,谁会竭尽全力发完微博后,还去给它添加什么标签呢?因此,新浪微博还得努力,寻找另外一种更好地分析微博内容的方式。否则系统全盘扫描海里用户的海量微博内容,则恐怕吃不消也负担不起。算法
然我的以为却是能够从微博关键词(标签tag云)和每一个用户为本身打的标签(打着越多的共同标签可定义为类似用户)入手,以下图左右部分所示:数据库
也就是说,经过共同的好友和经过间接关注的人来定义类似用户是不靠谱的,只有经过基于微博内容的分析寻找类似用户才是可行之道,同时,更进一步,经过微博内容分析获得标签tag云后,再从中找到相同或相近的标签tag云寻找类似的用户无疑比已有推荐好友方式(经过共同的好友和经过间接关注的人来定义类似用户)更靠谱。编程
3.一、多种推荐方式结合网络
在现行的 Web 站点上的推荐每每都不是单纯只采用了某一种推荐的机制和策略,他们每每是将多个方法混合在一块儿,从而达到更好的推荐效果。数据结构
举个例子如Amazon中除此基于用户的推荐以外,还会用到基于内容的推荐(物品具备相同关键词和Tag):如新产品的推荐;基于项目的协同过滤推荐(喜欢A,C与A相似,可能也喜欢C):如捆绑销售and别人购买/浏览的商品。app
协同过滤是利用集体智慧的一个典型方法。要理解什么是协同过滤 (Collaborative Filtering, 简称 CF),首先想一个简单的问题,若是你如今想看个电影,但你不知道具体看哪部,你会怎么作?大部分的人会问问周围的朋友或者称之为广义上的邻居(neighborhood),看看最近有什么好看的电影推荐,而咱们通常更倾向于从口味比较相似的朋友那里获得推荐。这就是协同过滤的核心思想。以下图,你能从图中看到多少信息?
4.一、协同过滤推荐步骤
作协同过滤推荐,通常要作好如下几个步骤:
1)若要作协同过滤,那么收集用户偏好则成了关键。能够经过用户的行为诸如评分(如不一样的用户对不一样的做品有不一样的评分,而评分接近则意味着喜爱口味相近,即可断定为类似用户),投票,转发,保存,书签,标记,评论,点击流,页面停留时间,是否购买等得到。以下面第2点所述:全部这些信息均可以数字化,如一个二维矩阵表示出来。
2)收集了用户行为数据以后,咱们接下来便要对数据进行减噪与归一化操做(获得一个用户偏好的二维矩阵,一维是用户列表,另外一维是物品列表,值是用户对物品的偏好,通常是 [0,1] 或者 [-1, 1] 的浮点数值)。下面再简单介绍下减噪和归一化操做:
3)找到类似的用户和物品,经过什么途径找到呢?即是计算类似用户或类似物品的类似度。
4)类似度的计算有多种方法,不过都是基于向量Vector的,其实也就是计算两个向量的距离,距离越近类似度越大。在推荐中,用户-物品偏好的二维矩阵下,咱们将某个或某几个用户对莫两个物品的偏好做为一个向量来计算两个物品之间的类似度,或者将两个用户对某个或某几个物品的偏好做为一个向量来计算两个用户之间的类似度。
类似度计算算法能够用于计算用户或者项目类似度。以项目类似度计算(Item Similarity Computation)为列,通性在于都是从评分矩阵中,为两个项目i,j挑选出共同的评分用户,然对这个共同用户的评分向量,进行计算类似度si,j,以下图所示,行表明用户,列表明项目(注意到是从i,j向量中抽出共有的评论,组成的一对向量,进行类似度计算):
因此说,很简单,找物品间的类似度,用户不变,找多个用户对物品的评分;找用户间的类似度,物品不变,找用户对某些个物品的评分。
5)而计算出来的这两个类似度则将做为基于用户、项目的两项协同过滤的推荐。
常见的计算类似度的方法有:欧几里德距离,皮尔逊相关系数(如两个用户对多个电影的评分,采起皮尔逊相关系数等相关计算方法,能够抉择出他们的口味和偏好是否一致),Cosine类似度,Tanimoto系数。下面,简单介绍其中的欧几里得距离与皮尔逊相关系数:
能够看出,当 n=2 时,欧几里德距离就是平面上两个点的距离。当用欧几里德距离表示类似度,通常采用如下公式进行转换:距离越小,类似度越大(同时,避免除数为0):
其中Ru,i 为用户u 对项目 i 的评分,对应带横杠的为这个用户集U对项目i的评分评分。
6)类似邻居计算。邻居分为两类:一、固定数量的邻居K-neighborhoods (或Fix-size neighborhoods),不论邻居的“远近”,只取最近的 K 个,做为其邻居,以下图A部分所示;二、基于类似度门槛的邻居,落在以当前点为中心,距离为 K 的区域中的全部点都做为当前点的邻居,以下图B部分所示。
再介绍一下K最近邻(k-Nearest Neighbor,KNN)分类算法:这是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:若是一个样本在特征空间中的k个最类似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。
7)通过4)计算出来的基于用户的CF(基于用户推荐之用:经过共同口味与偏好找类似邻居用户,K-邻居算法,你朋友喜欢,你也可能喜欢),基于物品的CF(基于项目推荐之用:发现物品之间的类似度,推荐相似的物品,你喜欢物品A,C与A类似,那么你可能也喜欢C)。
4.二、基于项目类似度与基于用户类似度的差别
上述3.1节中三个类似度公式是基于项目类似度场景下的,而实际上,基于用户类似度与基于项目类似度计算的一个基本的区别是,基于用户类似度是基于评分矩阵中的行向量类似度求解,基于项目类似度计算式基于评分矩阵中列向量类似度求解,而后三个公式分别均可以适用,以下图:
(其中,为0的表示未评分)
聚类聚类,通俗的讲,即所谓“物以类聚,人以群分”。聚类 (Clustering) 是一个数据挖掘的经典问题,它的目的是将数据分为多个簇 (Cluster),在同一个簇中的对象之间有较高的类似度,而不一样簇的对象差异较大。
5.一、K 均值聚类算法
K-均值(K-Means)聚类算法与处理混合正态分布的最大指望算法很类似,由于他们都试图找到数据中天然聚类的中心。此算法假设对象属性来自于空间向量,目标是使各个群组内部的均方偏差总和最小。
K均值聚类算法首先会随机肯定K个中心位置(位于空间中表明聚类中心的点),而后将各个数据项分配给最临近的中心点。待分配完成以后,聚类中心就会移到分配给该聚类的全部节点的平均位置处,而后整个分配过程从新开始。这一过程会一直重复下去,直到分配过程再也不产生变化为止。下图是包含两个聚类的K-均值聚类过程:
如下代码所示便是此K-均值聚类算法的python实现:
k-Means是一种机器学习领域中的一种非监督学习。下面,简要介绍下监督学习与无监督学习:
5.二、Canopy 聚类算法
Canopy 聚类算法的基本原则是:首先应用成本低的近似的距离计算方法高效的将数据分为多个组,这里称为一个 Canopy,咱们姑且将它翻译为“华盖”,Canopy 之间能够有重叠的部分;而后采用严格的距离计算方式准确的计算在同一 Canopy 中的点,将他们分配与最合适的簇中。Canopy 聚类算法常常用于 K 均值聚类算法的预处理,用来找合适的 k 值和簇中心。
5.三、模糊 K 均值聚类算法
模糊 K 均值聚类算法是 K 均值聚类的扩展,它的基本原理和 K 均值同样,只是它的聚类结果容许存在对象属于多个簇,也就是说:它属于咱们前面介绍过的可重叠聚类算法。为了深刻理解模糊 K 均值和 K 均值的区别,这里咱们得花些时间了解一个概念:模糊参数(Fuzziness Factor)。
与 K 均值聚类原理相似,模糊 K 均值也是在待聚类对象向量集合上循环,可是它并非将向量分配给距离最近的簇,而是计算向量与各个簇的相关性(Association)。假设有一个向量 v,有 k 个簇,v 到 k 个簇中心的距离分别是 d1,d2⋯ dk,那么 V 到第一个簇的相关性 u1能够经过下面的算式计算:
计算 v 到其余簇的相关性只需将 d1替换为对应的距离。从上面的算式,咱们看出,当 m 近似 2 时,相关性近似 1;当 m 近似 1 时,相关性近似于到该簇的距离,因此 m 的取值在(1,2)区间内,当 m 越大,模糊程度越大,m 就是咱们刚刚提到的模糊参数。
其他聚类算法本文再也不介绍。关于冷启动、数据稀疏、可扩展性、可移植性、可解释性、多样性、推荐信息的价值等问题则待后续阐述。
接下来,分类算法有不少,本文介绍决策树学习,与贝叶斯定理。
6.一、决策树学习
我们直接切入正题。所谓决策树,顾名思义,是一种树,一种依托于策略抉择而创建起来的树。
机器学习中,决策树是一个预测模型;他表明的是对象属性与对象值之间的一种映射关系。树中每一个节点表示某个对象,而每一个分叉路径则表明的某个可能的属性值,而每一个叶结点则对应从根节点到该叶节点所经历的路径所表示的对象的值。决策树仅有单一输出,若欲有复数输出,能够创建独立的决策树以处理不一样输出。
从数据产生决策树的机器学习技术叫作决策树学习, 通俗说就是决策树。
来理论的太过抽象,下面举两个浅显易懂的例子:
第一个例子:通俗来讲,决策树分类的思想相似于找对象。现想象一个女孩的母亲要给这个女孩介绍男友,因而有了下面的对话:
女儿:多大年纪了?
母亲:26。
女儿:长的帅不帅?
母亲:挺帅的。
女儿:收入高不?
母亲:不算很高,中等状况。
女儿:是公务员不?
母亲:是,在税务局上班呢。
女儿:那好,我去见见。
这个女孩的决策过程就是典型的分类树决策。至关于经过年龄、长相、收入和是否公务员对将男人分为两个类别:见和不见。假设这个女孩对男人的要求是:30岁如下、长相中等以上而且是高收入者或中等以上收入的公务员,那么这个能够用下图表示女孩的决策逻辑:
也就是说,决策树的简单策略就是,比如公司招聘面试过程当中筛选一我的的简历,若是你的条件至关比如如说清华博士毕业,那么二话不说,直接叫过来面试,若是非重点大学毕业,但实际项目经验丰富,那么也要考虑叫过来面试一下,即所谓具体状况具体分析、决策。
第二个例子来自Tom M.Mitchell著的机器学习一书:
小王的目的是经过下周天气预报寻找何时人们会打高尔夫,他了解人们决定是否打球的缘由最主要取决于天气状况。而天气情况有晴,云和雨;气温用华氏温度表示;相对湿度用百分比;还有有无风。如此,咱们即可以构造一棵决策树,以下(根据天气这个分类决策这天是否合适打网球):
上述决策树对应于如下表达式:(Outlook=Sunny ^Humidity<=70)V (Outlook = Overcast)V (Outlook=Rain ^ Wind=Weak)。获得的最佳分类属性以下图所示:
在上图中,计算了两个不一样属性:湿度(humidity)和风力(wind)的信息增益,最终humidity这种分类的信息增益0.151>wind增益的0.048。说白了,就是在星期六上午是否适合打网球的问题诀策中,采起humidity较wind做为分类属性更佳,决策树由此而来。
ID3算法决策树的造成
OK,下图为ID3算法第一步后造成的部分决策树。这样综合起来看,就容易理解多了。一、overcast样例必为正,因此为叶子结点,总为yes;二、ID3无回溯,局部最优,而非全局最优,还有另外一种树后修剪决策树。下图是ID3算法第一步后造成的部分决策树:
贝叶斯定理:已知某条件几率,如何获得两个事件交换后的几率,也就是在已知P(A|B)的状况下如何求得P(B|A)。这里先解释什么是条件几率:
表示事件B已经发生的前提下,事件A发生的几率,叫作事件B发生下事件A的条件几率。其基本求解公式为:
。
贝叶斯定理之因此有用,是由于咱们在生活中常常遇到这种状况:咱们能够很容易直接得出P(A|B),P(B|A)则很难直接得出,但咱们更关心P(B|A),贝叶斯定理就为咱们打通从P(A|B)得到P(B|A)的道路。
下面不加证实地直接给出贝叶斯定理(公式被网友指出有问题,待后续验证改正):
”北京十分科技也很是看好阅读推荐类的应用,他们花了很是大的精力(一年60人团队),才在今天推出了iPhone 版“酷云阅读”。
为何要投入这么多人去作这个阅读应用?CEO 李鹏告诉我,这个团队超过一半的人都在作后台相关的东西,包括语义分析、机器学习等算法。他们的目的是将互联网“语义化”之后,把人的兴趣明确,最后把每一个人感兴趣的内容推荐给相关的人。在iPhone 上,酷云的大体作法和Zite iPad 版相似,用户的行为也是有“喜欢”、“不喜欢”,以及点击相应的媒体来源或者相关的标签来告诉酷云你但愿之后看到更多这些内容。
这个目的是大部分阅读推荐应用都有的,可是酷云的作法彷佛更加变态。他们除了天天要抓取来自互联网的超过10万篇文章以外,还对全国200个的电视台播出的视频内容进行了索引,以便用户也能够经过文字搜索出视频、以及对视频内容进行同样的推荐。大体作法是先把这些节目都录制下来,而后把声音转文字,最后创建摘要和索引。“