摘要
先自上而下,后自底向上的介绍ElasticSearch的底层工做原理,试图回答如下问题:html
为何个人搜索 *foo-bar* 没法匹配 foo-bar ?web
为何增长更多的文件会压缩索引(Index)?缓存
为何ElasticSearch占用不少内存?微信
版本
elasticsearch版本: elasticsearch-2.2.0网络
内容
图解ElasticSearch
云上的集群
集群里的盒子
云里面的每一个白色正方形的盒子表明一个节点——Node。数据结构
节点之间
在一个或者多个节点直接,多个绿色小方块组合在一块儿造成一个ElasticSearch的索引。app
索引里的小方块
在一个索引下,分布在多个节点里的绿色小方块称为分片——Shard。elasticsearch
Shard=Lucene Index
一个ElasticSearch的Shard本质上是一个Lucene Index。性能
Lucene是一个Full Text 搜索库(也有不少其余形式的搜索库),ElasticSearch是创建在Lucene之上的。接下来的故事要说的大部份内容其实是ElasticSearch如何基于Lucene工做的。学习
图解Lucene
Mini索引——segment
在Lucene里面有不少小的segment,咱们能够把它们当作Lucene内部的mini-index。
Segment内部
有着许多数据结构
Inverted Index
Stored Fields
Document Values
Cache
最最重要的Inverted Index
Inverted Index主要包括两部分:
一个有序的数据字典Dictionary(包括单词Term和它出现的频率)。
与单词Term对应的Postings(即存在这个单词的文件)。
当咱们搜索的时候,首先将搜索的内容分解,而后在字典里找到对应Term,从而查找到与搜索相关的文件内容。
查询“the fury”
自动补全(AutoCompletion-Prefix)
若是想要查找以字母“c”开头的字母,能够简单的经过二分查找(Binary Search)在Inverted Index表中找到例如“choice”、“coming”这样的词(Term)。
昂贵的查找
若是想要查找全部包含“our”字母的单词,那么系统会扫描整个Inverted Index,这是很是昂贵的。
在此种状况下,若是想要作优化,那么咱们面对的问题是如何生成合适的Term。
问题的转化
对于以上诸如此类的问题,咱们可能会有几种可行的解决方案:
* suffix -> xiffus *
若是咱们想之后缀做为搜索条件,能够为Term作反向处理。
(60.6384, 6.5017) -> u4u8gyykk
对于GEO位置信息,能够将它转换为GEO Hash。
123 -> {1-hundreds, 12-tens, 123}
对于简单的数字,能够为它生成多重形式的Term。
解决拼写错误
一个Python库 为单词生成了一个包含错误拼写信息的树形状态机,解决拼写错误的问题。
Stored Field字段查找
当咱们想要查找包含某个特定标题内容的文件时,Inverted Index就不能很好的解决这个问题,因此Lucene提供了另一种数据结构Stored Fields来解决这个问题。本质上,Stored Fields是一个简单的键值对key-value。默认状况下,ElasticSearch会存储整个文件的JSON source。
Document Values为了排序,聚合
即便这样,咱们发现以上结构仍然没法解决诸如:排序、聚合、facet,由于咱们可能会要读取大量不须要的信息。
因此,另外一种数据结构解决了此种问题:Document Values。这种结构本质上就是一个列式的存储,它高度优化了具备相同类型的数据的存储结构。
为了提升效率,ElasticSearch能够将索引下某一个Document Value所有读取到内存中进行操做,这大大提高访问速度,可是也同时会消耗掉大量的内存空间。
总之,这些数据结构Inverted Index、Stored Fields、Document Values及其缓存,都在segment内部。
搜索发生时
搜索时,Lucene会搜索全部的segment而后将每一个segment的搜索结果返回,最后合并呈现给客户。
Lucene的一些特性使得这个过程很是重要:
Segments是不可变的(immutable)
Delete? 当删除发生时,Lucene作的只是将其标志位置为删除,可是文件仍是会在它原来的地方,不会发生改变
Update? 因此对于更新来讲,本质上它作的工做是:先删除,而后从新索引(Re-index)
随处可见的压缩
Lucene很是擅长压缩数据,基本上全部教科书上的压缩方式,都能在Lucene中找到。
缓存全部的全部
Lucene也会将全部的信息作缓存,这大大提升了它的查询效率。
缓存的故事
当ElasticSearch索引一个文件的时候,会为文件创建相应的缓存,而且会按期(每秒)刷新这些数据,而后这些文件就能够被搜索到。
随着时间的增长,咱们会有不少segments,
因此ElasticSearch会将这些segment合并,在这个过程当中,segment会最终被删除掉
这就是为何增长文件可能会使索引所占空间变小,它会引发merge,从而可能会有更多的压缩。
举个栗子
有两个segment将会merge
这两个segment最终会被删除,而后合并成一个新的segment
这时这个新的segment在缓存中处于cold状态,可是大多数segment仍然保持不变,处于warm状态。
以上场景常常在Lucene Index内部发生的。
在Shard中搜索
ElasticSearch从Shard中搜索的过程与Lucene Segment中搜索的过程相似。
与在Lucene Segment中搜索不一样的是,Shard多是分布在不一样Node上的,因此在搜索与返回结果时,全部的信息都会经过网络传输。
须要注意的是:
1次搜索查找2个shard = 2次分别搜索shard
对于日志文件的处理
当咱们想搜索特定日期产生的日志时,经过根据时间戳对日志文件进行分块与索引,会极大提升搜索效率。
当咱们想要删除旧的数据时也很是方便,只需删除老的索引便可。
在上种状况下,每一个index有两个shards
如何Scale
shard不会进行更进一步的拆分,可是shard可能会被转移到不一样节点上
因此,若是当集群节点压力增加到必定的程度,咱们可能会考虑增长新的节点,这就会要求咱们对全部数据进行从新索引,这是咱们不太但愿看到的,因此咱们须要在规划的时候就考虑清楚,如何去平衡足够多的节点与不足节点之间的关系。
节点分配与Shard优化
为更重要的数据索引节点,分配性能更好的机器
确保每一个shard都有副本信息replica
路由Routing
每一个节点,每一个都存留一份路由表,因此当请求到任何一个节点时,ElasticSearch都有能力将请求转发到指望节点的shard进一步处理。
一个真实的请求
Query
Query有一个类型filtered,以及一个multi_match的查询
Aggregation
根据做者进行聚合,获得top10的hits的top10做者的信息
请求分发
这个请求可能被分发到集群里的任意一个节点
上帝节点
这时这个节点就成为当前请求的协调者(Coordinator),它决定:
根据索引信息,判断请求会被路由到哪一个核心节点
以及哪一个副本是可用的
等等
路由
在真实搜索以前
ElasticSearch 会将Query转换成Lucene Query
而后在全部的segment中执行计算
对于Filter条件自己也会有缓存
但queries不会被缓存,因此若是相同的Query重复执行,应用程序本身须要作缓存
因此,
filters能够在任什么时候候使用
query只有在须要score的时候才使用
返回
搜索结束以后,结果会沿着下行的路径向上逐层返回。
添加微信:xinbigdata
获取精选大数据电子书、学习视频、入群交流 、专栏返现

本文分享自微信公众号 - 老蒙大数据(simon_bigdata)。
若有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一块儿分享。