2019年常见Elasticsearch 高频面试题答案详细解析

前言java

1.Elasticsearch 是一个分布式的 RESTful 风格的搜索和数据分析引擎。node

(1)查询 : Elasticsearch 容许执行和合并多种类型的搜索 — 结构化、非结构化、地理位置、度量指标 — 搜索方式随心而变。程序员

(2)分析 : 找到与查询最匹配的十个文档是一回事。可是若是面对的是十亿行日志,又该如何解读呢?Elasticsearch 聚合让您可以从大处着眼,探索数据的趋势和模式。面试

(3)速度 : Elasticsearch 很快。真的,真的很快。算法

(4)可扩展性 : 能够在笔记本电脑上运行。 也能够在承载了 PB 级数据的成百上千台服务器上运行。api

(5)弹性 : Elasticsearch 运行在一个分布式的环境中,从设计之初就考虑到了这一点。数组

(6)灵活性 : 具有多个案例场景。数字、文本、地理位置、结构化、非结构化。全部的数据类型都欢迎。缓存

(7)HADOOP & SPARK : Elasticsearch + Hadoop服务器

2.Elasticsearch是一个高度可伸缩的开源全文搜索和分析引擎。它容许您快速和接近实时地存储、搜索和分析大量数据。网络

这里有一些使用Elasticsearch的用例:

(1)你经营一个网上商店,你容许你的顾客搜索你卖的产品。在这种状况下,您可使用Elasticsearch来存储整个产品目录和库存,并为它们提供搜索和自动完成建议。

(2)你但愿收集日志或事务数据,并但愿分析和挖掘这些数据,以查找趋势、统计、汇总或异常。在这种状况下,你可使用loghide (Elasticsearch/ loghide /Kibana堆栈的一部分)来收集、聚合和解析数据,而后让loghide将这些数据输入到Elasticsearch中。一旦数据在Elasticsearch中,你就能够运行搜索和聚合来挖掘你感兴趣的任何信息。

(3)你运行一个价格警报平台,容许精通价格的客户指定以下规则:“我有兴趣购买特定的电子设备,若是下个月任何供应商的产品价格低于X美圆,我但愿获得通知”。在这种状况下,你能够抓取供应商的价格,将它们推入到Elasticsearch中,并使用其反向搜索(Percolator)功能来匹配价格走势与客户查询,并最终在找到匹配后将警报推送给客户。

(4)你有分析/业务智能需求,并但愿快速调查、分析、可视化,并对大量数据提出特别问题(想一想数百万或数十亿的记录)。在这种状况下,你可使用Elasticsearch来存储数据,而后使用Kibana (Elasticsearch/ loghide /Kibana堆栈的一部分)来构建自定义仪表板,以可视化对您来讲很重要的数据的各个方面。此外,还可使用Elasticsearch聚合功能对数据执行复杂的业务智能查询。

v2-b2df9a051c55832e1c7f57495d48acee_hd.png

Elasticsearch面试题

1三、详细描述一下 Elasticsearch 更新和删除文档的过程。

1四、详细描述一下 Elasticsearch 搜索的过程。

1五、在 Elasticsearch 中,是怎么根据一个词找到对应的倒排索引的?

1六、Elasticsearch 在部署时,对 Linux 的设置有哪些优化方法?

1七、对于 GC 方面,在使用 Elasticsearch 时要注意什么?

1八、Elasticsearch 对于大数据量(上亿量级)的聚合如何实现?

1九、在并发状况下,Elasticsearch 若是保证读写一致?

20、如何监控 Elasticsearch 集群状态?

2一、介绍下大家电商搜索的总体技术架构。

2二、介绍一下大家的个性化搜索方案?

2三、是否了解字典树?

2四、拼写纠错是如何实现的?

v2-29ea8cd048867befa2724e5806dee8dd_hd.png

1三、详细描述一下 Elasticsearch 更新和删除文档的过程。

(1)删除和更新也都是写操做,可是 Elasticsearch 中的文档是不可变的,所以不能被删除或者改动以展现其变动;

(2)磁盘上的每一个段都有一个相应的.del 文件。当删除请求发送后,文档并无真的被删除,而是在.del 文件中被标记为删除。该文档依然能匹配查询,可是会在结果中被过滤掉。当段合并时,在.del 文件中被标记为删除的文档将不会被写入新段。

(3)在新的文档被建立时,Elasticsearch 会为该文档指定一个版本号,当执行更新时,旧版本的文档在.del 文件中被标记为删除,新版本的文档被索引到一个新段。旧版本的文档依然能匹配查询,可是会在结果中被过滤掉。

1四、详细描述一下 Elasticsearch 搜索的过程。

(1)搜索被执行成一个两阶段过程,咱们称之为 Query Then Fetch;

(2)在初始查询阶段时,查询会广播到索引中每个分片拷贝(主分片或者副本分片)。 每一个分片在本地执行搜索并构建一个匹配文档的大小为 from + size 的优先队列。

PS:在搜索的时候是会查询 Filesystem Cache 的,可是有部分数据还在 MemoryBuffer,因此搜索是近实时的。

(3)每一个分片返回各自优先队列中 全部文档的 ID 和排序值 给协调节点,它合并这些值到本身的优先队列中来产生一个全局排序后的结果列表。

(4)接下来就是 取回阶段,协调节点辨别出哪些文档须要被取回并向相关的分片提交多个 GET 请求。每一个分片加载并 丰 富 文档,若是有须要的话,接着返回文档给协调节点。一旦全部的文档都被取回了,协调节点返回结果给客户端。

(5)补充:Query Then Fetch 的搜索类型在文档相关性打分的时候参考的是本分片的数据,这样在文档数量较少的时候可能不够准确,DFS Query Then Fetch 增长了一个预查询的处理,询问 Term 和 Document frequency,这个评分更准确,可是性能会变差。*

v2-24a5f411224666d47b552aa21cabc761_hd.jpg

1五、在 Elasticsearch 中,是怎么根据一个词找到对应的倒排索引的?

(1)Lucene的索引过程,就是按照全文检索的基本过程,将倒排表写成此文件格式的过程。

(2)Lucene的搜索过程,就是按照此文件格式将索引进去的信息读出来,而后计算每篇文档打分(score)的过程。

1六、Elasticsearch 在部署时,对 Linux 的设置有哪些优化方法?

(1)64 GB 内存的机器是很是理想的, 可是 32 GB 和 16 GB 机器也是很常见的。少于 8 GB 会拔苗助长。

(2)若是你要在更快的 CPUs 和更多的核心之间选择,选择更多的核心更好。多个内核提供的额外并发远赛过稍微快一点点的时钟频率。

(3)若是你负担得起 SSD,它将远远超出任何旋转介质。 基于 SSD 的节点,查询和索引性能都有提高。若是你负担得起,SSD 是一个好的选择。

(4)即便数据中心们近在咫尺,也要避免集群跨越多个数据中心。绝对要避免集群跨越大的地理距离。

(5)请确保运行你应用程序的 JVM 和服务器的 JVM 是彻底同样的。 在Elasticsearch 的几个地方,使用 Java 的本地序列化。

(6)经过设置 gateway.recover_after_nodes、gateway.expected_nodes、gateway.recover_after_time 能够在集群重启的时候避免过多的分片交换,这可能会让数据恢复从数个小时缩短为几秒钟。

(7)Elasticsearch 默认被配置为使用单播发现,以防止节点无心中加入集群。只有在同一台机器上运行的节点才会自动组成集群。最好使用单播代替组播。

(8)不要随意修改垃圾回收器(CMS)和各个线程池的大小。

(9)把你的内存的(少于)一半给 Lucene(但不要超过 32 GB!),经过ES_HEAP_SIZE 环境变量设置。

(10)内存交换到磁盘对服务器性能来讲是致命的。若是内存交换到磁盘上,一个100 微秒的操做可能变成 10 毫秒。 再想一想那么多 10 微秒的操做时延累加起来。 不难看出 swapping 对于性能是多么可怕。

(11)Lucene 使用了大 量 的文件。同时,Elasticsearch 在节点和 HTTP 客户端之间进行通讯也使用了大量的套接字。 全部这一切都须要足够的文件描述符。你应该增长你的文件描述符,设置一个很大的值,如 64,000。

补充:索引阶段性能提高方法

(1)使用批量请求并调整其大小:每次批量数据 5–15 MB 大是个不错的起始点。

(2)存储:使用 SSD

(3)段和合并:Elasticsearch 默认值是 20 MB/s,对机械磁盘应该是个不错的设置。若是你用的是 SSD,能够考虑提升到 100–200 MB/s。若是你在作批量导入,彻底不在乎搜索,你能够完全关掉合并限流。另外还能够增长index.translog.flush_threshold_size 设置,从默认的 512 MB 到更大一些的值,好比 1 GB,这能够在一次清空触发的时候在事务日志里积累出更大的段。

(4)若是你的搜索结果不须要近实时的准确度,考虑把每一个索引的index.refresh_interval 改到 30s。

(5)若是你在作大批量导入,考虑经过设置 index.number_of_replicas: 0 关闭副本。

1七、对于 GC 方面,在使用 Elasticsearch 时要注意什么?

(1)倒排词典的索引须要常驻内存,没法 GC,须要监控 data node 上 segmentmemory 增加趋势。

(2)各种缓存,field cache, filter cache, indexing cache, bulk queue 等等,要设置合理的大小,而且要应该根据最坏的状况来看 heap 是否够用,也就是各种缓存所有占满的时候,还有 heap 空间能够分配给其余任务吗?避免采用 clear cache等“自欺欺人”的方式来释放内存。

(3)避免返回大量结果集的搜索与聚合。确实须要大量拉取数据的场景,能够采用scan & scroll api 来实现。

(4)cluster stats 驻留内存并没有法水平扩展,超大规模集群能够考虑分拆成多个集群经过 tribe node 链接。

(5)想知道 heap 够不够,必须结合实际应用场景,并对集群的 heap 使用状况作持续的监控。

(6)根据监控数据理解内存需求,合理配置各种circuit breaker,将内存溢出风险下降到最低。欢迎你们关注个人公种浩【程序员追风】,2019年多家公司java面试题整理了1000多道400多页pdf文档,文章都会在里面更新,整理的资料也会放在里面。

v2-580d281447a3e4c336e9000797c48ee9_hd.png

1八、Elasticsearch 对于大数据量(上亿量级)的聚合如何实现?

Elasticsearch 提供的首个近似聚合是 cardinality 度量。它提供一个字段的基数,即该字段的 distinct 或者 unique 值的数目。它是基于 HLL 算法的。HLL 会先对咱们的输入做哈希运算,而后根据哈希运算的结果中的 bits 作几率估算从而获得基数。其特色是:可配置的精度,用来控制内存的使用(更精确 = 更多内存);小的数据集精度是很是高的;咱们能够经过配置参数,来设置去重须要的固定内存使用量。不管数千仍是数十亿的惟一值,内存使用量只与你配置的精确度相关。

1九、在并发状况下,Elasticsearch 若是保证读写一致?

(1)能够经过版本号使用乐观并发控制,以确保新版本不会被旧版本覆盖,由应用层来处理具体的冲突;

(2)另外对于写操做,一致性级别支持 quorum/one/all,默认为 quorum,即只有当大多数分片可用时才容许写操做。但即便大多数可用,也可能存在由于网络等缘由致使写入副本失败,这样该副本被认为故障,分片将会在一个不一样的节点上重建。

(3)对于读操做,能够设置 replication 为 sync(默认),这使得操做在主分片和副本分片都完成后才会返回;若是设置 replication 为 async 时,也能够经过设置搜索请求参数_preference 为 primary 来查询主分片,确保文档是最新版本。

20、如何监控 Elasticsearch 集群状态?

Marvel 让你能够很简单的经过 Kibana 监控 Elasticsearch。你能够实时查看你的集群健康状态和性能,也能够分析过去的集群、索引和节点指标。

2一、介绍下大家电商搜索的总体技术架构。

v2-8ef7d370b932d7726aceecfbccc1a49d_hd.jpg

2二、介绍一下大家的个性化搜索方案?

基于word2vec和Elasticsearch实现个性化搜索

(1)基于word2vec、Elasticsearch和自定义的脚本插件,咱们就实现了一个个性化的搜索服务,相对于原有的实现,新版的点击率和转化率都有大幅的提高;

(2)基于word2vec的商品向量还有一个可用之处,就是能够用来实现类似商品的推荐;

(3)使用word2vec来实现个性化搜索或个性化推荐是有必定局限性的,由于它只能处理用户点击历史这样的时序数据,而没法全面的去考虑用户偏好,这个仍是有很大的改进和提高的空间;

2三、是否了解字典树?

经常使用字典数据结构以下所示:

v2-83a119f2700bab1fa8ab7c924e760a17_hd.jpg

Trie 的核心思想是空间换时间,利用字符串的公共前缀来下降查询时间的开销以达到提升效率的目的。它有 3 个基本性质:

1)根节点不包含字符,除根节点外每个节点都只包含一个字符。

2)从根节点到某一节点,路径上通过的字符链接起来,为该节点对应的字符串。

3)每一个节点的全部子节点包含的字符都不相同。

v2-1e31bebad38bfaab59e5384e6dd062d7_hd.jpg

(1)能够看到,trie 树每一层的节点数是 26^i 级别的。因此为了节省空间,咱们还能够用动态链表,或者用数组来模拟动态。而空间的花费,不会超过单词数×单词长度。

(2)实现:对每一个结点开一个字母集大小的数组,每一个结点挂一个链表,使用左儿子右兄弟表示法记录这棵树;

(3)对于中文的字典树,每一个节点的子节点用一个哈希表存储,这样就不用浪费太大的空间,并且查询速度上能够保留哈希的复杂度 O(1)。

2四、拼写纠错是如何实现的?

(1)拼写纠错是基于编辑距离来实现;编辑距离是一种标准的方法,它用来表示通过插入、删除和替换操做从一个字符串转换到另一个字符串的最小操做步数;

(2)编辑距离的计算过程:好比要计算 batyu 和 beauty 的编辑距离,先建立一个7×8 的表(batyu 长度为 5,coffee 长度为 6,各加 2),接着,在以下位置填入黑色数字。其余格的计算过程是取如下三个值的最小值:

若是最上方的字符等于最左方的字符,则为左上方的数字。不然为左上方的数字+1。(对于 3,3 来讲为 0)

左方数字+1(对于 3,3 格来讲为 2)

上方数字+1(对于 3,3 格来讲为 2)

最终取右下角的值即为编辑距离的值 3。

v2-57fb52790c10465912f9e608703d7497_hd.jpg


对于拼写纠错,咱们考虑构造一个度量空间(Metric Space),该空间内任何关系知足如下三条基本条件:

d(x,y) = 0 -- 假如 x 与 y 的距离为 0,则 x=y

d(x,y) = d(y,x) -- x 到 y 的距离等同于 y 到 x 的距离

d(x,y) + d(y,z) >= d(x,z) -- 三角不等式

(1)根据三角不等式,则知足与 query 距离在 n 范围内的另外一个字符转 B,其与 A的距离最大为 d+n,最小为 d-n。

(2)BK 树的构造就过程以下:每一个节点有任意个子节点,每条边有个值表示编辑距离。全部子节点到父节点的边上标注 n 表示编辑距离刚好为 n。好比,咱们有棵树父节点是”book”和两个子节点”cake”和”books”,”book”到”books”的边标号 1,”book”到”cake”的边上标号 4。从字典里构造好树后,不管什么时候你想插入新单词时,计算该单词与根节点的编辑距离,而且查找数值为d(neweord, root)的边。递归得与各子节点进行比较,直到没有子节点,你就能够建立新的子节点并将新单词保存在那。好比,插入”boo”到刚才上述例子的树中,咱们先检查根节点,查找 d(“book”, “boo”) = 1 的边,而后检查标号为1 的边的子节点,获得单词”books”。咱们再计算距离 d(“books”, “boo”)=2,则将新单词插在”books”以后,边标号为 2。

三、查询类似词以下:计算单词与根节点的编辑距离 d,而后递归查找每一个子节点标号为 d-n 到 d+n(包含)的边。假如被检查的节点与搜索单词的距离 d 小于 n,则返回该节点并继续查询。好比输入 cape 且最大容忍距离为 1,则先计算和根的编辑距离 d(“book”, “cape”)=4,而后接着找和根节点之间编辑距离为 3 到5 的,这个就找到了 cake 这个节点,计算 d(“cake”, “cape”)=1,知足条件因此返回 cake,而后再找和 cake 节点编辑距离是 0 到 2 的,分别找到 cape 和cart 节点,这样就获得 cape 这个知足条件的结果。

v2-414dc1cfe3428df85f5d947a793e9505_hd.jpg


最后

欢迎你们一块儿交流,喜欢文章记得关注我点个赞哟,感谢支持!

相关文章
相关标签/搜索