以往的向量空间模型
是将query
和文档使用向量表示而后计算其内容类似性来进行相关性估计的,而几率检索模型
是一种直接对用户需求进行相关性的建模方法,一个query
进来,将全部的文档分为两类 -- 相关文档
、不相关文档,
这样就转为了一个相关性的分类问题。atom
对于某个文档D来讲,P(R|D)表示该文档数据相关文档的几率,则P(NR|D)表示该文档属于不相关文档的几率,若是query
属于相关文档的几率大于不相关文档P(R|D)>P(NR|D),则认为这个文档是与用户查询相关相关的。spa
如今使用贝叶斯公式将其转一下:3d
在搜索排序过程当中不须要真正的分类,只须要保证相关性由高到底排序便可,因此只须要P(D|R) / P(D|NR)降序便可,
这样就最终转为计算P(D|R),P(D|NR)的值便可。code
为了可以使得上述两个计算因子可行,二元独立模型作出了两个假设:xml
1. 二元假设blog
相似于布尔模型中的文档表示方法,一篇文档在由特征(或者单词)进行表示的时候,以特征(或者单词)出现和不出现两种状况来表示,不考虑词频等其余因素。排序
2. 词汇独立性假设文档
指文档里出现的单词之间没有任何关联,任意一个单词在文档的分布几率不依赖于其余单词是否出现。由于词汇之间没有关联,因此能够将文档几率转换为单词几率的乘积。class
上述提到的文档D表示为{1,0,1,0,1}
,用pi来表示第i个单词在相关文档出现的几率,则在已知相关文档
集合的状况下,观察到D的几率为:基础
第1,3,5
表示这个单词在D中出现,因此其贡献几率为pi,而第2,4
这两个单词并无在D中出现,因此其贡献的几率为1−pi。
同理在不相关文档
中观察到的几率为:
最终获得的相关性几率估算为:
如今将其推广以后能够有通用的式子:
di=1表示在文档中出现的单词,di=0表示没在文档中出现的单词。
在这里进一步对上述公式进行等价变换以后有:
其中上面式子第三步的第二部分表示各个单词在全部文档中出现的几率,因此这个式子的值和具体文档并无什么关系,在排序中不起做用,才能够简化到第4步。
为了方便计算,将上述连乘公式取log:
有了上述最终可计算的式子以后,咱们就只须要统计文档D中的各个单词在相关文档
/不相关文档
中出现的几率便可:
上面的表格表示各个单词在文档集合中的相关文档
/不相关文档
出现数量,同时为了不log(0)出现,加上平滑以后能够计算获得:
则最终能够获得以下公式:
其表明的含义是:对于同时出如今用户查询Q和文档D中的单词,累加每一个单词的估值,其和就是文档D和查询的相关性度量。
在不肯定哪些文档是相关的,哪些文档是不相关的的时候,能够给公式的估算因子直接赋予固定值,则该公式将会退化为IDF因子。
BIM模型基于二元独立假设推导而出,即对于单词特征,只考虑是否在文档中出现过,而不考虑单词的权值。BM25模型在BIM模型的基础上,考虑了单词在查询中的权值及单词在文档中的权值,拟合出综合上述考虑因素的公式,并经过实验引入一些经验参数。
BM25模型的具体计算公式以下所示:
上面的式子中:
0~1000。
综合来看,BM25模型计算公式其实融合了4个考虑因素:IDF因子,文档长度因子,文档词频,和查询词频。并对3个自由调节因子(k1,k2,b)进行权值的调整。
例子:
假设当前以“乔布斯 IPAD2”
这个查询词为例,来计算在某文档D中BM25相关性
的值,因为不知道文档集中相关与不相关的分类,因此这里直接将相关文档个数r置为0,则将获得的BIM
因子为:
其余数值假定以下:
乔布斯
的文档个数为:n乔布斯=1000IPAD2
的文档个数为:nIPAD2=100乔布斯
的词频为:f乔布斯=8IPAD2
的词频为:fIPAD2=8则最终能够计算到的BM25
结果为:
每一个文档按上述公式计算获得相关性排序便可。
在BM25
模型中,文档被当作一个总体进行进行词频的统计,而忽视了不一样区域的重要性,BM25F
模型正是抓住了这点进行了相应的改进。
BM25F
模型在计算相关性时候,会对文档分割成不一样的域来进行加权统计,很是适用于网页搜索,由于在一个网页有标题信息
、meta信息
、页面内容信息
等,而标题信息
无疑是最重要的,其次是meta信息
,最后才是网页内容
,BM25F
在计算相关性的,会将网页分为不用的区域,在各个区域分别统计本身的词频。
因此BM25F
模型的计算公式为:
BM25F
的第1部分仍是BIM
的值。
其中与BM25
主要的差异体如今因子上,它是单词i在各个区域不一样的得分,计算公式以下:
上面的公式表示: