Solr基础教程之solrconfig.xml(三)

前面介绍过schema.xml的一些配置信息,本章介绍solrconfig.xml的配置,以及怎样安装smartcn分词器和IK分词器,并介绍主要的查询语法。php

一、 solr配置solrconfig.xml算法

solrconfig.xml这个配置文件可以在你下载solr包的安装解压文件夹的D:\solr-4.10.4\example\solr\collection1\conf中找到,这个配置文件内容有点多,主要内容有:使用的lib配置,包括依赖的jar和Solr的一些插件;组件信息配置;索引配置和查询配置,如下具体说一下索引配置和查询配置.apache

二、索引indexConfigjson

Solr 性能因素,来了解与各类更改相关的性能权衡。缓存

表 1 归纳了可控制 Solr 索引处理的各类因素:ruby

属性 描写叙述
useCompoundFile 经过将很是多 Lucene 内部文件整合到一个文件来下降使用中的文件的数量。这可有助于下降 Solr 使用的文件句柄数目,代价是下降了性能。除非是应用程序用完了文件句柄。不然 false 的默认值应该就已经足够。

ramBufferSizeMB maxBufferedDocs 在加入或删除文档时,为了下降频繁的更些索引,Solr会选缓存在内存中,当内存中的文件大于设置的值,才会更新到索引库。较大的值可以使索引时间变快但会牺牲较多的内存。如两个值同一时候设置,知足一个就会进行刷新索引.
mergeFactor 决定低水平的 Lucene 段被合并的频率。

较小的值(最小为 2)使用的内存较少但致使的索引时间也更慢。较大的值可以使索引时间变快但会牺牲较多的内存。markdown

maxIndexingThreads indexWriter生成索引时使用的最大线程数
unlockOnStartup unlockOnStartup 告知 Solr 忽略在多线程环境中用来保护索引的锁定机制。在某些状况下,索引可能会因为不对的关机或其余错误而一直处于锁定。这就妨碍了加入和更新。

将其设置为 true 可以禁用启动锁定。进而赞成进行加入和更新。多线程

lockType single: 在仅仅读索引或是没有其余进程改动索引时使用。native: 使用操做系统本地文件锁,不能使用多个Solr在同一个JVM中共享一个索引。 simple :使用一个文本文件锁定索引。

三、 查询配置querypost

属性 描写叙述
maxBooleanClauses 最大的BooleanQuery数量. 当值超出时。抛出 TooManyClausesException.注意这个是全局的,假设是多个SolrCore都会使用一个值,每个Core里设置不同的化,会使用最后一个的.
filterCache filterCache存储了无序的lucene document id集合。1.存储了filter queries(“fq”參数)获得的document id集合结果。2还可用于facet查询3. 3)假设配置了useFilterForSortedQuery,那么假设查询有filter,则使用filterCache。
queryResultCache 缓存搜索结果,一个文档ID列表
documentCache 缓存Lucene的Document对象,不会自热
fieldValueCache 字段缓存使用文档ID进行高速訪问。默认状况下建立fieldValueCache即便这里没有配置。

enableLazyFieldLoading 若应用程序预期仅仅会检索 Document 上少数几个 Field。那么可以将属性设置为 true。延迟载入的一个常见场景大都发生在应用程序返回和显示一系列搜索结果的时候,用户常常会单击当中的一个来查看存储在此索引中的原始文档。

初始的显示常常仅仅需要显示很是短的一段信息。若考虑到检索大型 Document 的代价,除非必需,不然就应该避免载入整个文档。性能

queryResultWindowSize 一次查询中存储最多的doc的id数目.
queryResultMaxDocsCached 查询结果doc的最大缓存数量, 好比要求每页显示10条,这里设置是20条,也就是说缓存里总会给你多出10条的数据.让你点示下一页时很是快拿到数据.
listener 选项定义 newSearcher 和 firstSearcher 事件。您可以使用这些事件来指定实例化新搜索程序或第一个搜索程序时应该运行哪些查询。假设应用程序指望请求某些特定的查询,那么在建立新搜索程序或第一个搜索程序时就应该反凝视这些部分并运行适当的查询。
useColdSearcher 是否使用冷搜索,为false时使用自热后的searcher
maxWarmingSearchers 最大自热searcher数量

四、Solr加入中文分词器

中文分词在solr里面是没有默认开启的,需要咱们本身配置一个中文分词器。眼下可用的分词器有smartcn。IK。Jeasy。庖丁。事实上主要是两种,一种是基于中科院ICTCLAS的隐式马尔科夫HMM算法的中文分词器,如smartcn,ictclas4j,长处是分词精确度高,缺点是不能使用用户本身定义词库。还有一种是基于最大匹配的分词器,如IK ,Jeasy。庖丁。长处是可以本身定义词库。添加新词。缺点是分出来的垃圾词较多。

各有优缺点看应用场合本身衡量选择吧。

如下给出两种分词器的安装方法,任选其一便可,推荐第一种。因为smartcn就在solr发行包的contrib/analysis-extras/lucene-libs/下,就是lucene-analyzers-smartcn-4.2.0.jar,首选在solrconfig.xml中加一句引用analysis-extras的配置,这样咱们本身加入的分词器才会引到的solr中.

<lib dir="../../../solr-4.10.4/contrib/analysis-extras/lib" regex=".*\.jar" />
<!-- 这里我写的是这个jar包对应当前文件solrconfig.xml的相对路径 -->

假设不想写上面这样的引入,也可以将该jar包放入solr的WEB-INF\lib如下也能达到相同的效果。

四、 smartcn 分词器的安装

首选将发行包的contrib/analysis-extras/lucene-libs/ lucene-analyzers-smartcn-4.2.0.jar拷贝到solr的WEB-INF\lib如下。打开/solr/mycore/conf/scheme.xml,编辑text字段类型例如如下,加入如下代码到scheme.xml中的对应位置。就是找到fieldType定义的那一段,在如下多加入这一段就好啦

<fieldType name="text_smartcn" class="solr.TextField" positionIncrementGap="0">

      <analyzer type="index">

        <tokenizer class="org.apache.lucene.analysis.cn.smart.SmartChineseSentenceTokenizerFactory"/>

        <filter class="org.apache.lucene.analysis.cn.smart.SmartChineseWordTokenFilterFactory"/>

      </analyzer>

      <analyzer type="query">

         <tokenizer class="org.apache.lucene.analysis.cn.smart.SmartChineseSentenceTokenizerFactory"/>

        <filter class="org.apache.lucene.analysis.cn.smart.SmartChineseWordTokenFilterFactory"/>

      </analyzer>

</fieldType>

假设需要检索某个字段,还需要在scheme.xml如下的field中,加入指定的字段。用text_ smartcn做为type的名字。来完毕中文分词。如 text要实现中文检索的话,就要作例如如下的配置:

<field name ="text" type ="text_smartcn" indexed ="true" stored ="false" multiValued ="true"/>

五、 IK 分词器的安装

首选要去下载IKAnalyzer的发行包.下载地址: http://ik-analyzer.googlecode.com/files/IK%20Analyzer%202012FF_hf1.zip.

下载后解压出来文件里IKAnalyzer.cfg.xml、Stopword.dic放到solr的/WEB-INF/classes文件夹下(没有就建立classes文件夹),将IKAnalyzer2012FF_u1.jar放到solr的/WEB-INF/lib如下.

IKAnalyzer2012FF_u1.jar 分词器jar包

IKAnalyzer.cfg.xml 分词器配置文件

Stopword.dic 分词器停词字典,可本身定义加入内容

完毕后就可以像smartcn同样的进行配置scheme.xml了.

<fieldType name="text_ik" class="solr.TextField">
    <analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>
</fieldType>

<field name ="text" type ="text_ik" indexed ="true" stored ="false" multiValued ="true"/>

现在来验证下是否加入成功,首先使用StartSolrJetty来启动solr服务,启动过程当中假设配置出错,通常有两个缘由:一是配置的分词器jar找不到,也就是你没有复制jar包到\solr\contrib\analysis-extras\lib眼下下;二是分词器版本号不对致使的分词器接口API不同出的错,要是这个错的话就在检查分词器的相关文档,看一下支持的版本号是否同样.

假设在启动过程当中没有报错的话说明配置成功了.咱们可以进入到http://localhost:8983/solr地址进行測试一下刚加入的中文分词器.在首页的Core Selector中选择你配置的Croe后点击如下的Analysis,在Analyse Fieldname / FieldType里选择你刚才设置的字段名称或是分词器类型,在Field Value(index)中输入:中国人,点击右面的分词便可了.

六、查询參数
常用
q - 查询字符串。必须的。
fl - 指定返回那些字段内容,用逗号或空格分隔多个。
start - 返回第一条记录在完整找到结果中的偏移位置,0開始,通常分页用。
rows - 指定返回结果最多有多少条记录。配合start来实现分页。
sort - 排序,格式:sort=”field name”+”desc|asc”[,”field name”+”desc|asc”]… 。演示样例:(inStock desc, price asc)表示先 “inStock” 降序, 再 “price” 升序,默认是相关性降序。
wt - (writer type)指定输出格式,可以有 xml, json, php, phps, 后面 solr 1.3添加的。要用通知咱们,因为默认没有打开。
fq - (filter query)过虑查询,做用:在q查询符合结果中同一时候是fq查询符合的,好比:q=mm&fq=date_time:[20081001 TO 20091031],找keywordmm。并且date_time是20081001到20091031之间的。官方文档:http://wiki.apache.org/solr/CommonQueryParameters

不常用
q.op - 覆盖schema.xml的defaultOperator(有空格时用”AND”仍是用”OR”操做逻辑),通常默认指定
df - 默认的查询字段,通常默认指定
qt - (query type)指定那个类型来处理查询请求,通常不用指定。默认是standard。
其余
indent - 返回的结果是否缩进,默认关闭,用 indent=true|on 开启,通常调试json,php,phps,ruby输出才有必要用这个參数。
version - 查询语法的版本号,建议不使用它,由server指定默认值。

[Solr的检索运算符]
“:” 指定字段查指定值,如返回所有值*:*
“?”表示单个随意字符的通配
“*” 表示多个随意字符的通配(不能在检索的项開始使用*或者?符号)
“~”表示模糊检索。如检索拼写相似于”roam”的项这样写:roam~将找到形如foam和roams的单词;roam~0.8,检索返回相似度在0.8以上的记录。
邻近检索。如检索相隔10个单词的”apache”和”jakarta”,”jakarta apache”~10
“^”控制相关度检索,如检索jakarta apache,同一时候但愿去让”jakarta”的相关度更加好,那么在其后加上”^”符号和增量值。即jakarta^4 apache
布尔操做符AND、||
布尔操做符OR、&&
布尔操做符NOT、!、-(排除操做符不能单独与项使用构成查询)
“+” 存在操做符,要求符号”+”后的项必须在文档对应的域中存在
( ) 用于构成子查询
[] 包括范围检索。如检索某时间段记录。包括头尾,date:[200707 TO 200710]
{}不包括范围检索,如检索某时间段记录,不包括头尾
date:{200707 TO 200710}
” 转义操做符,特殊字符包括+ - && || ! ( ) { } [ ] ^ ” ~ * ?

: “