Solr是一个独立的企业级搜索应用服务器,它对外提供相似于Web-service的API接口。用户能够经过http请求,向搜索引擎服务器提交必定格式的XML文件,生成索引;也能够经过Http Get操做提出查找请求,并获得XML/Json格式的返回结果。采用Java5开发,基于Lucene。html
Lucene是apache软件基金会4 jakarta项目组的一个子项目,是一个开放源代码的全文检索引擎工具包,即它不是一个完整的全文检索引擎,而是一个全文检索引擎的架构,提供了完整的查询引擎和索引引擎,部分文本分析引擎(英文与德文两种西方语言)。java
其中Lucene全文检索的基本原理,跟郭军大牛讲的web搜索课程里的技术一致,采用分词,语义语法分析,向量空间模型等技术来实现,下面转载一篇讲的比较细致的博文备忘:http://www.cnblogs.com/guochunguang/articles/3641008.html程序员
1、总论web
根据http://lucene.apache.org/java/docs/index.html定义:算法
Lucene是一个高效的,基于Java的全文检索库。数据库
因此在了解Lucene以前要费一番工夫了解一下全文检索。apache
那么什么叫作全文检索呢?这要从咱们生活中的数听说起。windows
咱们生活中的数据整体分为两种:结构化数据和非结构化数据。服务器
固然有的地方还会提到第三种,半结构化数据,如XML,HTML等,当根据须要可按结构化数据来处理,也可抽取出纯文本按非结构化数据来处理。架构
非结构化数据又一种叫法叫全文数据。
按照数据的分类,搜索也分为两种:
对非结构化数据也即对全文数据的搜索主要有两种方法:
一种是顺序扫描法(Serial Scanning):所谓顺序扫描,好比要找内容包含某一个字符串的文件,就是一个文档一个文档的看,对于每个文档,从头看到尾,若是此文档包含此字符串,则此文档为咱们要找的文件,接着看下一个文件,直到扫描完全部的文件。如利用windows的搜索也能够搜索文件内容,只是至关的慢。若是你有一个80G硬盘,若是想在上面找到一个内容包含某字符串的文件,不花他几个小时,怕是作不到。Linux下的grep命令也是这一种方式。你们可能以为这种方法比较原始,但对于小数据量的文件,这种方法仍是最直接,最方便的。可是对于大量的文件,这种方法就很慢了。
有人可能会说,对非结构化数据顺序扫描很慢,对结构化数据的搜索却相对较快(因为结构化数据有必定的结构能够采起必定的搜索算法加快速度),那么把咱们的非结构化数据想办法弄得有必定结构不就好了吗?
这种想法很自然,却构成了全文检索的基本思路,也即将非结构化数据中的一部分信息提取出来,从新组织,使其变得有必定结构,而后对此有必定结构的数据进行搜索,从而达到搜索相对较快的目的。
这部分从非结构化数据中提取出的而后从新组织的信息,咱们称之索引。
这种说法比较抽象,举几个例子就很容易明白,好比字典,字典的拼音表和部首检字表就至关于字典的索引,对每个字的解释是非结构化的,若是字典没有音节表和部首检字表,在茫茫辞海中找一个字只能顺序扫描。然而字的某些信息能够提取出来进行结构化处理,好比读音,就比较结构化,分声母和韵母,分别只有几种能够一一列举,因而将读音拿出来按必定的顺序排列,每一项读音都指向此字的详细解释的页数。咱们搜索时按结构化的拼音搜到读音,而后按其指向的页数,即可找到咱们的非结构化数据——也即对字的解释。
这种先创建索引,再对索引进行搜索的过程就叫全文检索(Full-text Search)。
下面这幅图来自《Lucene in action》,但却不只仅描述了Lucene的检索过程,而是描述了全文检索的通常过程。
全文检索大致分两个过程,索引建立(Indexing)和搜索索引(Search)。
因而全文检索就存在三个重要问题:
1. 索引里面究竟存些什么?(Index)
2. 如何建立索引?(Indexing)
3. 如何对索引进行搜索?(Search)
下面咱们顺序对每一个个问题进行研究。
2、索引里面究竟存些什么
索引里面究竟须要存些什么呢?
首先咱们来看为何顺序扫描的速度慢:
实际上是因为咱们想要搜索的信息和非结构化数据中所存储的信息不一致形成的。
非结构化数据中所存储的信息是每一个文件包含哪些字符串,也即已知文件,欲求字符串相对容易,也便是从文件到字符串的映射。而咱们想搜索的信息是哪些文件包含此字符串,也即已知字符串,欲求文件,也即从字符串到文件的映射。二者偏偏相反。因而若是索引总可以保存从字符串到文件的映射,则会大大提升搜索速度。
因为从字符串到文件的映射是文件到字符串映射的反向过程,因而保存这种信息的索引称为反向索引。
反向索引的所保存的信息通常以下:
假设个人文档集合里面有100篇文档,为了方便表示,咱们为文档编号从1到100,获得下面的结构
左边保存的是一系列字符串,称为词典。
每一个字符串都指向包含此字符串的文档(Document)链表,此文档链表称为倒排表(Posting List)。
有了索引,便使保存的信息和要搜索的信息一致,能够大大加快搜索的速度。
好比说,咱们要寻找既包含字符串“lucene”又包含字符串“solr”的文档,咱们只须要如下几步:
1. 取出包含字符串“lucene”的文档链表。
2. 取出包含字符串“solr”的文档链表。
3. 经过合并链表,找出既包含“lucene”又包含“solr”的文件。
看到这个地方,有人可能会说,全文检索的确加快了搜索的速度,可是多了索引的过程,二者加起来不必定比顺序扫描快多少。的确,加上索引的过程,全文检索不必定比顺序扫描快,尤为是在数据量小的时候更是如此。而对一个很大量的数据建立索引也是一个很慢的过程。
然而二者仍是有区别的,顺序扫描是每次都要扫描,而建立索引的过程仅仅须要一次,之后即是一劳永逸的了,每次搜索,建立索引的过程没必要通过,仅仅搜索建立好的索引就能够了。
这也是全文搜索相对于顺序扫描的优点之一:一次索引,屡次使用。
3、如何建立索引
全文检索的索引建立过程通常有如下几步:
第一步:一些要索引的原文档(Document)。
为了方便说明索引建立过程,这里特地用两个文件为例:
文件一:Students should be allowed to go out with their friends, but not allowed to drink beer.
文件二:My friend Jerry went to school to see his students but found them drunk which is not allowed.
第二步:将原文档传给分次组件(Tokenizer)。
分词组件(Tokenizer)会作如下几件事情(此过程称为Tokenize):
1. 将文档分红一个一个单独的单词。
2. 去除标点符号。
3. 去除停词(Stop word)。
所谓停词(Stop word)就是一种语言中最普通的一些单词,因为没有特别的意义,于是大多数状况下不能成为搜索的关键词,于是建立索引时,这种词会被去掉而减小索引的大小。
英语中挺词(Stop word)如:“the”,“a”,“this”等。
对于每一种语言的分词组件(Tokenizer),都有一个停词(stop word)集合。
通过分词(Tokenizer)后获得的结果称为词元(Token)。
在咱们的例子中,便获得如下词元(Token):
“Students”,“allowed”,“go”,“their”,“friends”,“allowed”,“drink”,“beer”,“My”,“friend”,“Jerry”,“went”,“school”,“see”,“his”,“students”,“found”,“them”,“drunk”,“allowed”。
第三步:将获得的词元(Token)传给语言处理组件(Linguistic Processor)。
语言处理组件(linguistic processor)主要是对获得的词元(Token)作一些同语言相关的处理。
对于英语,语言处理组件(Linguistic Processor)通常作如下几点:
1. 变为小写(Lowercase)。
2. 将单词缩减为词根形式,如“cars”到“car”等。这种操做称为:stemming。
3. 将单词转变为词根形式,如“drove”到“drive”等。这种操做称为:lemmatization。
Stemming 和 lemmatization的异同:
语言处理组件(linguistic processor)的结果称为词(Term)。
在咱们的例子中,通过语言处理,获得的词(Term)以下:
“student”,“allow”,“go”,“their”,“friend”,“allow”,“drink”,“beer”,“my”,“friend”,“jerry”,“go”,“school”,“see”,“his”,“student”,“find”,“them”,“drink”,“allow”。
也正是由于有语言处理的步骤,才能使搜索drove,而drive也能被搜索出来。
第四步:将获得的词(Term)传给索引组件(Indexer)。
索引组件(Indexer)主要作如下几件事情:
1. 利用获得的词(Term)建立一个字典。
在咱们的例子中字典以下:
Term |
Document ID |
student |
1 |
allow |
1 |
go |
1 |
their |
1 |
friend |
1 |
allow |
1 |
drink |
1 |
beer |
1 |
my |
2 |
friend |
2 |
jerry |
2 |
go |
2 |
school |
2 |
see |
2 |
his |
2 |
student |
2 |
find |
2 |
them |
2 |
drink |
2 |
allow |
2 |
2. 对字典按字母顺序进行排序。
Term |
Document ID |
allow |
1 |
allow |
1 |
allow |
2 |
beer |
1 |
drink |
1 |
drink |
2 |
find |
2 |
friend |
1 |
friend |
2 |
go |
1 |
go |
2 |
his |
2 |
jerry |
2 |
my |
2 |
school |
2 |
see |
2 |
student |
1 |
student |
2 |
their |
1 |
them |
2 |
3. 合并相同的词(Term)成为文档倒排(Posting List)链表。
在此表中,有几个定义:
因此对词(Term) “allow”来说,总共有两篇文档包含此词(Term),从而词(Term)后面的文档链表总共有两项,第一项表示包含“allow”的第一篇文档,即1号文档,此文档中,“allow”出现了2次,第二项表示包含“allow”的第二个文档,是2号文档,此文档中,“allow”出现了1次。
到此为止,索引已经建立好了,咱们能够经过它很快的找到咱们想要的文档。
并且在此过程当中,咱们惊喜地发现,搜索“drive”,“driving”,“drove”,“driven”也可以被搜到。由于在咱们的索引中,“driving”,“drove”,“driven”都会通过语言处理而变成“drive”,在搜索时,若是您输入“driving”,输入的查询语句一样通过咱们这里的一到三步,从而变为查询“drive”,从而能够搜索到想要的文档。
3、如何对索引进行搜索?
到这里彷佛咱们能够宣布“咱们找到想要的文档了”。
然而事情并无结束,找到了仅仅是全文检索的一个方面。不是吗?若是仅仅只有一个或十个文档包含咱们查询的字符串,咱们的确找到了。然而若是结果有一千个,甚至成千上万个呢?那个又是您最想要的文件呢?
打开Google吧,好比说您想在微软找份工做,因而您输入“Microsoft job”,您却发现总共有22600000个结果返回。好大的数字呀,忽然发现找不到是一个问题,找到的太多也是一个问题。在如此多的结果中,如何将最相关的放在最前面呢?
固然Google作的很不错,您一下就找到了jobs at Microsoft。想象一下,若是前几个所有是“Microsoft does a good job at software industry…”将是多么可怕的事情呀。
如何像Google同样,在成千上万的搜索结果中,找到和查询语句最相关的呢?
如何判断搜索出的文档和查询语句的相关性呢?
这要回到咱们第三个问题:如何对索引进行搜索?
搜索主要分为如下几步:
第一步:用户输入查询语句。
查询语句同咱们普通的语言同样,也是有必定语法的。
不一样的查询语句有不一样的语法,如SQL语句就有必定的语法。
查询语句的语法根据全文检索系统的实现而不一样。最基本的有好比:AND, OR, NOT等。
举个例子,用户输入语句:lucene AND learned NOT hadoop。
说明用户想找一个包含lucene和learned然而不包括hadoop的文档。
第二步:对查询语句进行词法分析,语法分析,及语言处理。
因为查询语句有语法,于是也要进行语法分析,语法分析及语言处理。
1. 词法分析主要用来识别单词和关键字。
如上述例子中,通过词法分析,获得单词有lucene,learned,hadoop, 关键字有AND, NOT。
若是在词法分析中发现不合法的关键字,则会出现错误。如lucene AMD learned,其中因为AND拼错,致使AMD做为一个普通的单词参与查询。
2. 语法分析主要是根据查询语句的语法规则来造成一棵语法树。
若是发现查询语句不知足语法规则,则会报错。如lucene NOT AND learned,则会出错。
如上述例子,lucene AND learned NOT hadoop造成的语法树以下:
3. 语言处理同索引过程当中的语言处理几乎相同。
如learned变成learn等。
通过第二步,咱们获得一棵通过语言处理的语法树。
此步骤有分几小步:
虽然在上一步,咱们获得了想要的文档,然而对于查询结果应该按照与查询语句的相关性进行排序,越相关者越靠前。
如何计算文档和查询语句的相关性呢?
不如咱们把查询语句看做一片短小的文档,对文档与文档之间的相关性(relevance)进行打分(scoring),分数高的相关性好,就应该排在前面。
那么又怎么对文档之间的关系进行打分呢?
这可不是一件容易的事情,首先咱们看一看判断人之间的关系吧。
首先看一我的,每每有不少要素,如性格,信仰,爱好,衣着,高矮,胖瘦等等。
其次对于人与人之间的关系,不一样的要素重要性不一样,性格,信仰,爱好可能重要些,衣着,高矮,胖瘦可能就不那么重要了,因此具备相同或类似性格,信仰,爱好的人比较容易成为好的朋友,然而衣着,高矮,胖瘦不一样的人,也能够成为好的朋友。
于是判断人与人之间的关系,首先要找出哪些要素对人与人之间的关系最重要,好比性格,信仰,爱好。其次要判断两我的的这些要素之间的关系,好比一我的性格开朗,另外一我的性格外向,一我的信仰佛教,另外一个信仰上帝,一我的爱好打篮球,另外一个爱好踢足球。咱们发现,两我的在性格方面都很积极,信仰方面都很善良,爱好方面都爱运动,于是两我的关系应该会很好。
咱们再来看看公司之间的关系吧。
首先看一个公司,有不少人组成,如总经理,经理,首席技术官,普通员工,保安,门卫等。
其次对于公司与公司之间的关系,不一样的人重要性不一样,总经理,经理,首席技术官可能更重要一些,普通员工,保安,门卫可能较不重要一点。因此若是两个公司总经理,经理,首席技术官之间关系比较好,两个公司容易有比较好的关系。然而一位普通员工就算与另外一家公司的一位普通员工有血海深仇,怕也难影响两个公司之间的关系。
于是判断公司与公司之间的关系,首先要找出哪些人对公司与公司之间的关系最重要,好比总经理,经理,首席技术官。其次要判断这些人之间的关系,不如两家公司的总经理曾经是同窗,经理是老乡,首席技术官曾是创业伙伴。咱们发现,两家公司不管总经理,经理,首席技术官,关系都很好,于是两家公司关系应该会很好。
分析了两种关系,下面看一下如何判断文档之间的关系了。
首先,一个文档有不少词(Term)组成,如search, lucene, full-text, this, a, what等。
其次对于文档之间的关系,不一样的Term重要性不一样,好比对于本篇文档,search, Lucene, full-text就相对重要一些,this, a , what可能相对不重要一些。因此若是两篇文档都包含search, Lucene,fulltext,这两篇文档的相关性好一些,然而就算一篇文档包含this, a, what,另外一篇文档不包含this, a, what,也不能影响两篇文档的相关性。
于是判断文档之间的关系,首先找出哪些词(Term)对文档之间的关系最重要,如search, Lucene, fulltext。而后判断这些词(Term)之间的关系。
找出词(Term)对文档的重要性的过程称为计算词的权重(Term weight)的过程。
计算词的权重(term weight)有两个参数,第一个是词(Term),第二个是文档(Document)。
词的权重(Term weight)表示此词(Term)在此文档中的重要程度,越重要的词(Term)有越大的权重(Term weight),于是在计算文档之间的相关性中将发挥更大的做用。
判断词(Term)之间的关系从而获得文档相关性的过程应用一种叫作向量空间模型的算法(Vector Space Model)。
下面仔细分析一下这两个过程:
影响一个词(Term)在一篇文档中的重要性主要有两个因素:
容易理解吗?词(Term)在文档中出现的次数越多,说明此词(Term)对该文档越重要,如“搜索”这个词,在本文档中出现的次数不少,说明本文档主要就是讲这方面的事的。然而在一篇英语文档中,this出现的次数更多,就说明越重要吗?不是的,这是由第二个因素进行调整,第二个因素说明,有越多的文档包含此词(Term), 说明此词(Term)太普通,不足以区分这些文档,于是重要性越低。
这也如咱们程序员所学的技术,对于程序员自己来讲,这项技术掌握越深越好(掌握越深说明花时间看的越多,tf越大),找工做时越有竞争力。然而对于全部程序员来讲,这项技术懂得的人越少越好(懂得的人少df小),找工做越有竞争力。人的价值在于不可替代性就是这个道理。
道理明白了,咱们来看看公式:
这仅仅只term weight计算公式的简单典型实现。实现全文检索系统的人会有本身的实现,Lucene就与此稍有不一样。
咱们把文档看做一系列词(Term),每个词(Term)都有一个权重(Term weight),不一样的词(Term)根据本身在文档中的权重来影响文档相关性的打分计算。
因而咱们把全部此文档中词(term)的权重(term weight) 看做一个向量。
Document = {term1, term2, …… ,term N}
Document Vector = {weight1, weight2, …… ,weight N}
一样咱们把查询语句看做一个简单的文档,也用向量来表示。
Query = {term1, term 2, …… , term N}
Query Vector = {weight1, weight2, …… , weight N}
咱们把全部搜索出的文档向量及查询向量放到一个N维空间中,每一个词(term)是一维。
如图:
咱们认为两个向量之间的夹角越小,相关性越大。
因此咱们计算夹角的余弦值做为相关性的打分,夹角越小,余弦值越大,打分越高,相关性越大。
有人可能会问,查询语句通常是很短的,包含的词(Term)是不多的,于是查询向量的维数很小,而文档很长,包含词(Term)不少,文档向量维数很大。你的图中二者维数怎么都是N呢?
在这里,既然要放到相同的向量空间,天然维数是相同的,不一样时,取两者的并集,若是不含某个词(Term)时,则权重(Term Weight)为0。
相关性打分公式以下:
举个例子,查询语句有11个Term,共有三篇文档搜索出来。其中各自的权重(Term weight),以下表格。
t1 |
t2 |
t3 |
t4 |
t5 |
t6 |
t7 |
t8 |
t9 |
t10 |
t11 |
|
D1 |
0 |
0 |
.477 |
0 |
.477 |
.176 |
0 |
0 |
0 |
.176 |
0 |
D2 |
0 |
.176 |
0 |
.477 |
0 |
0 |
0 |
0 |
.954 |
0 |
.176 |
D3 |
0 |
.176 |
0 |
0 |
0 |
.176 |
0 |
0 |
0 |
.176 |
.176 |
Q |
0 |
0 |
0 |
0 |
0 |
.176 |
0 |
0 |
.477 |
0 |
.176 |
因而计算,三篇文档同查询语句的相关性打分分别为:
因而文档二相关性最高,先返回,其次是文档一,最后是文档三。
到此为止,咱们能够找到咱们最想要的文档了。
说了这么多,其实尚未进入到Lucene,而仅仅是信息检索技术(Information retrieval)中的基本理论,然而当咱们看过Lucene后咱们会发现,Lucene是对这种基本理论的一种基本的的实践。因此在之后分析Lucene的文章中,会经常看到以上理论在Lucene中的应用。
在进入Lucene以前,对上述索引建立和搜索过程所一个总结,如图:
此图参照http://www.lucene.com.cn/about.htm中文章《开放源代码的全文检索引擎Lucene》
1. 索引过程:
1) 有一系列被索引文件
2) 被索引文件通过语法分析和语言处理造成一系列词(Term)。
3) 通过索引建立造成词典和反向索引表。
4) 经过索引存储将索引写入硬盘。
2. 搜索过程:
a) 用户输入查询语句。
b) 对查询语句通过语法分析和语言分析获得一系列词(Term)。
c) 经过语法分析获得一个查询树。
d) 经过索引存储将索引读入到内存。
e) 利用查询树搜索索引,从而获得每一个词(Term)的文档链表,对文档链表进行交,差,并获得结果文档。
f) 将搜索到的结果文档对查询的相关性进行排序。
g) 返回查询结果给用户。
下面咱们能够进入Lucene的世界了。
另:
CSDN中此文章连接为http://blog.csdn.net/forfuture1978/archive/2009/10/22/4711308.aspx
Javaeye中此文章连接为http://forfuture1978.javaeye.com/blog/546771