具体应用须要全面去把控,各个因素一块儿起做用。 java
第一部分<Solr常规的调优>
E文链接 http://wiki.apache.org/solr/SolrPerformanceFactors apache
indexed fields 的数量将会影响如下的一些性能: api
咱们能够经过将omitNorms=“true”来减小indexed fields数量增长所带来的影响。 缓存
Retrieving the stored fields 确实是一种开销。这个开销,受每一个文档所存储的字节影响很大。每一个文档的所占用的空间越大,文档就显的更稀疏,这样从硬盘中读取数据,就须要更多的i/o操做(一般,咱们在存储比较大的域的时候,就会考虑这样的事情,好比存储一篇文章的文档。) 安全
能够考虑将比较大的域放到solr外面来存储。若是你以为这样作会有些别扭的话,能够考虑使用压缩的域,可是这样会加剧cpu在存储和读取域的时候的负担。不过这样倒是能够较少i/0的负担。 服务器
若是,你并非老是使用stored fields的话,可使用stored field的延迟加载,这样可以节省不少的性能,尤为是使用compressed field 的时候。 app
这个是合并因子,这个参数大概决定了segment(索引段)的数量。 异步
合并因子这个值告诉lucene,在何时,要将几个segment合并成为一个segment, 合并因子就像是一个数字系统的基数同样。 ide
好比说,若是你将合并因子设成10,那么每往索引中添加1000个文档的时候,就会建立一个新的索引段。当第10个大小为1000的索引段添加进来的时候,这十个索引段就会被合并成一个大小为10,000的索引段。当十个大小为10,000的索引段生成的时候,它们就会被合并成一个大小为100,000的索引段。如此类推下去。 post
这个值能够在solrconfig.xml 中的
*mainIndex*中设置。(不用管indexDefaults中设置)
较高的合并因子
较低的合并因子
hashDocSet是solrconfig.xml中自定义优化选项,
使用在filters(docSets)
中,更小的sets,代表更小的内存消耗、遍历、插入。
hashDocSet参数值最后基于索引文档总数来定,索引集合越大,hashDocSet值也越大。
Calulate 0.005 of the total number of documents that you are going to store. Try values on either ‘side’ of that value to arrive at the best query times. When query times seem to plateau, and performance doesn’t show much difference between the higher number and the lower, use the higher.
Note: hashDocSet is no longer part of Solr as of version 1.4.0, see SOLR-1169.
当一个新的searcher 打开的时候,它缓存能够被预热,或者说使用从旧的searcher的缓存的数据来“自动加热”。autowarmCount是这样的一个参数,它表示从旧缓存中拷贝到新缓存中的对象数量。autowarmCount这个参数将会影响“自动预热”的时间。有些时候,咱们须要一些折中的考虑,seacher启动的时间和缓存加热的程度。固然啦,缓存加热的程度越好,使用的时间就会越长,但每每,咱们并不但愿过长的seacher启动时间。这个autowarm 参数能够在solrconfig.xml文件中被设置。
详细的配置能够参考solr的wiki。
咱们能够经过solr的admin界面来查看缓存的状态信息。提升solr缓存的大小每每是提升性能的捷径。当你使用面搜索的时候,你或许能够注意一下filterCache,这个是由solr实现的缓存。
详细的内容能够参考solrCaching这篇wiki。
若是你有许多域是基于排序的,那么你能够在“newSearcher”和“firstSearcher”event
listeners中添加一些明显须要预热的查询,这样FieldCache 就会缓存这部份内容。
优化索引,是咱们常常会作的事情,好比,当咱们创建好索引,而后这个索引不会再变动的状况,咱们就会作一次优化了。
但,若是你的索引常常会改变,那么你就须要好好的考虑下面的因素的。
优化,会将全部的索引段合并成为一个索引段,因此,优化这个操做其实能够帮助避免“too many files”这个问题,这个错误是由文件系统抛出的。
若是从机 常常从 主机更新的话,从机的性能是会受到影响的。为了不,因为这个问题而引发的性能降低,咱们还必须了解从机是怎样执行更新的,这样咱们才能更准确去调节一些相关的参数(commit的频率,spappullers, autowarming/autocount),这样,从机的更新才不会太频繁。
这里讨论三个有关的参数:
若是,你想要的效果是频繁的更新slave上的索引,以便这样看起来比较像“实时索引”。那么,你就须要让snapshot尽量频繁的运行,而后也让snappuller频繁的运行。这样,咱们或许能够每5分钟更新一次,而且还能取得不错的性能,固然啦,cach的命中率是很重要的,恩,缓存的加热时间也将会影响到更新的频繁度。
cache对性能是很重要的。一方面,新的缓存必须拥有足够的缓存量,这样接下来的的查询才可以从缓存中受益。另外一方面,缓存的预热将可能占用很长一段时间,尤为是,它实际上是只使用一个线程,和一个cpu在工做。snapinstaller太频繁的话,solr
slave将会处于一个不太理想的状态,可能它还在预热一个新的缓存,然而一个更新的searcher被opern了。
怎么解决这样的一个问题呢,咱们可能会取消第一个seacher,而后去处理一个更新seacher,也便是第二个。然而有可能第二个seacher 尚未被使用上的时候,第三个又过来了。看吧,一个恶性的循环,不是。固然也有可能,咱们刚刚预热好的时候就开始新一轮的缓存预热,其实,这样缓存的做用压根就没有能体现出来。出现这种状况的时候,下降snapshot的频率才是硬道理。
在有些状况下,咱们能够考虑将solr xml response 压缩后才输出。若是response很是大,就会触及NIc i/o限制。
固然压缩这个操做将会增长cpu的负担,其实,solr一个典型的依赖于cpu处理速度的服务,增长这个压缩的操做,将无疑会下降查询性能。可是,压缩后的数据将会是压缩前的数据的6分之一的大小。然而solr的查询性能也会有15%左右的消耗。
至于怎样配置这个功能,要看你使用的什么服务器而定,能够查阅相关的文档。
使用embeded 来创建索引,将会比使用xml格式来创建索引快50%。
若是你的solr实例没有被指定足够多的内存的话,java virtual machine也许会抛outof memoryError,这个并不对索引数据产生影响。可是这个时候,任何的adds/deletes/commits操做都是不可以成功的。
最简单的解决这个方法就是,固然前提是java virtual machine尚未使用掉你所有的内存,增长运行solr的java虚拟机的内存。
我想,你或许也会考虑怎样去减小solr的内存使用量。其中的一个因素就是input document的大小。当咱们使用xml执行add操做的时候,就会有两个限制。
第二部分<Solr特殊调优>
1. 多core的时候
多core 若是同一时间进行core 切换,会致使内存、cpu压力过大,能够扩展Solr代码,限制最多同时core
切换的执行个数。保证不会出现高load或者高cpu 风险
2,应用较高安全
最后不低于2个结点工做,而且最好2个结点是跨机器的。
offline与online切换的时候,若是数据量不是不少,能够考虑index与search合一,若是数据量较大,超过5000w的时候,建议index
offline或者search结点以外的其余结点上执行index
3.cache参数配置
若是更新很频繁,致使commit和reopen频繁,若是能够的话,关闭cache.
若是访问中依赖cache提示性能,那么最好关闭cache warm,no facet 需求
或者开开启cache warm 有facet须要,对fieldvalue cache很依赖的话。
实时更新的话,一般document cache命中率比较低,彻底能够不开启这个配置
4.reopen 和commit
若是能够的话,主磁盘索引,不参入segment合并,新的索引段走不一样的目录。而且reopen的时候,主索引的不变更。
commit与reopen异步化
5.有一部分数据若是不变更,能够考虑使用memory cache 或者locale cache 平衡性能和空间开销,同时避免FGC
6.中间变量压缩、单例化
全部查询或者建索引过程当中,尽可能少建立对象,而经过set改变对象值,以及单例化,提高性能。一些较大中间变量,若是能够的话,采起一些整数压缩
7.对象表示重定义
例如日期、地区、url、byte等一些对象,能够考虑差值、区位码、可别部分、压缩等结构,使得内存开销下降间接使得内存使用率提升,得到更好性能。
8.index与store 隔离
就是index发挥它的查询性能,store发挥它的存储、响应性能。
也就是不要将全部的内容都放在index中,尽可能使得field的属性stored=false
9. 使用solr、lucene最新版本
10. 共享分词实例
自定义的分词,务必使用单例。千万不要一个document建立一个分词对象
第三部分 Solr查询
1. 对按指定域排序
展现的时候,对于数字的建议,展现最近1或者3个月数据。例如价格,防止做弊
dump或者建索引的时候,对数字加以上下界检测,及早发现数字自己正确,而实际意义不合理的数据
2. 排序可变性
默认的排序务必有本身的相关参数,而且平衡各方面需求。
排序要变,可是不至于大的波动。排序的细节不公开,可是排序的结果能够解释的清楚。
3.线上线下
有些分值能够线下完成,有些分值线上完成。看需求。
4.多域查询
若是默认查询多个域,不妨将多个域合成一个域,只差一个域
5.高亮
高亮能够在solr里面或者外面执行的,不必定在solr里面执行,能够在solr以外执行
同理,分词能够在线下执行好,dump只执行简单的空格分词便可
6.统计
facet统计能够先上与线下相结合,不必定彻底依赖线上即时计数。
7.主动搜索 主动搜索查询串务必严格处理,既要去无效查询串,也要适当扩展查询串。 明确查询路径和hit=0的对应处理。