这篇文章主要来介绍下什么是 Analysis ,什么是分词器,以及 ElasticSearch 自带的分词器是怎么工做的,最后会介绍下中文分词是怎么作的。html
首先来讲下什么是 Analysis:java
顾名思义,文本分析就是把全文本转换成一系列单词(term/token)的过程,也叫分词。在 ES 中,Analysis 是经过分词器(Analyzer) 来实现的,可以使用 ES 内置的分析器或者按需定制化分析器。git
举一个分词简单的例子:好比你输入 Mastering Elasticsearch
,会自动帮你分红两个单词,一个是 mastering
,另外一个是 elasticsearch
,能够看出单词也被转化成了小写的。github
再简单了解了 Analysis 与 Analyzer 以后,让咱们来看下分词器的组成:正则表达式
分词器是专门处理分词的组件,分词器由如下三部分组成:api
同时 Analyzer 三个部分也是有顺序的,从图中能够看出,从上到下依次通过 Character Filters
,Tokenizer
以及 Token Filters
,这个顺序比较好理解,一个文本进来确定要先对文本数据进行处理,再去分词,最后对分词的结果进行过滤。elasticsearch
其中,ES 内置了许多分词器:ide
接下来会对以上分词器进行讲解,在讲解以前先来看下颇有用的 API:_analyzer API
:工具
它能够经过如下三种方式来查看分词器是怎么样工做的:学习
GET _analyze { "analyzer": "standard", "text" : "Mastering Elasticsearch , elasticsearch in Action" }
POST books/_analyze { "field": "title", "text": "Mastering Elasticesearch" }
POST /_analyze { "tokenizer": "standard", "filter": ["lowercase"], "text": "Mastering Elasticesearch" }
再了解了 Analyzer API 后,让咱们一块儿看下 ES 内置的分词器:
首先来介绍下 Stamdard Analyzer
分词器:
它是 ES 默认的分词器,它会对输入的文本按词的方式进行切分,切分好之后会进行转小写处理,默认的 stopwords 是关闭的。
下面使用 Kibana 看一下它是怎么样进行工做的,在 Kibana 的开发工具(Dev Tools)中指定 Analyzer 为 standard
,并输入文本 In 2020, Java is the best language in the world.
,而后咱们运行一下:
GET _analyze { "analyzer": "standard", "text": "In 2020, Java is the best language in the world." }
运行结果以下:
{ "tokens" : [ { "token" : "in", "start_offset" : 0, "end_offset" : 2, "type" : "<ALPHANUM>", "position" : 0 }, { "token" : "2020", "start_offset" : 3, "end_offset" : 7, "type" : "<NUM>", "position" : 1 }, { "token" : "java", "start_offset" : 9, "end_offset" : 13, "type" : "<ALPHANUM>", "position" : 2 }, { "token" : "is", "start_offset" : 14, "end_offset" : 16, "type" : "<ALPHANUM>", "position" : 3 }, { "token" : "the", "start_offset" : 17, "end_offset" : 20, "type" : "<ALPHANUM>", "position" : 4 }, { "token" : "best", "start_offset" : 21, "end_offset" : 25, "type" : "<ALPHANUM>", "position" : 5 }, { "token" : "language", "start_offset" : 26, "end_offset" : 34, "type" : "<ALPHANUM>", "position" : 6 }, { "token" : "in", "start_offset" : 35, "end_offset" : 37, "type" : "<ALPHANUM>", "position" : 7 }, { "token" : "the", "start_offset" : 38, "end_offset" : 41, "type" : "<ALPHANUM>", "position" : 8 }, { "token" : "world", "start_offset" : 42, "end_offset" : 47, "type" : "<ALPHANUM>", "position" : 9 } ] }
能够看出是按照空格、非字母的方式对输入的文本进行了转换,好比对 Java
作了转小写,对一些停用词也没有去掉,好比 in
。
其中 token
为分词结果;start_offset
为起始偏移;end_offset
为结束偏移;position
为分词位置。
下面来看下 Simple Analyzer
分词器:
它只包括了 Lower Case
的 Tokenizer
,它会按照非字母切分,非字母的会被去除,最后对切分好的作转小写处理,而后接着用刚才的输入文本,分词器换成 simple
来进行分词,运行结果以下:
{ "tokens" : [ { "token" : "in", "start_offset" : 0, "end_offset" : 2, "type" : "word", "position" : 0 }, { "token" : "java", "start_offset" : 9, "end_offset" : 13, "type" : "word", "position" : 1 }, { "token" : "is", "start_offset" : 14, "end_offset" : 16, "type" : "word", "position" : 2 }, { "token" : "the", "start_offset" : 17, "end_offset" : 20, "type" : "word", "position" : 3 }, { "token" : "best", "start_offset" : 21, "end_offset" : 25, "type" : "word", "position" : 4 }, { "token" : "language", "start_offset" : 26, "end_offset" : 34, "type" : "word", "position" : 5 }, { "token" : "in", "start_offset" : 35, "end_offset" : 37, "type" : "word", "position" : 6 }, { "token" : "the", "start_offset" : 38, "end_offset" : 41, "type" : "word", "position" : 7 }, { "token" : "world", "start_offset" : 42, "end_offset" : 47, "type" : "word", "position" : 8 } ] }
从结果中能够看出,数字 2020
被去除掉了,说明非字母的的确会被去除,全部的词也都作了小写转换。
如今,咱们来看下 Whitespace Analyzer
分词器:
它很是简单,根据名称也能够看出是按照空格进行切分的,下面咱们来看下它是怎么样工做的:
{ "tokens" : [ { "token" : "In", "start_offset" : 0, "end_offset" : 2, "type" : "word", "position" : 0 }, { "token" : "2020,", "start_offset" : 3, "end_offset" : 8, "type" : "word", "position" : 1 }, { "token" : "Java", "start_offset" : 9, "end_offset" : 13, "type" : "word", "position" : 2 }, { "token" : "is", "start_offset" : 14, "end_offset" : 16, "type" : "word", "position" : 3 }, { "token" : "the", "start_offset" : 17, "end_offset" : 20, "type" : "word", "position" : 4 }, { "token" : "best", "start_offset" : 21, "end_offset" : 25, "type" : "word", "position" : 5 }, { "token" : "language", "start_offset" : 26, "end_offset" : 34, "type" : "word", "position" : 6 }, { "token" : "in", "start_offset" : 35, "end_offset" : 37, "type" : "word", "position" : 7 }, { "token" : "the", "start_offset" : 38, "end_offset" : 41, "type" : "word", "position" : 8 }, { "token" : "world.", "start_offset" : 42, "end_offset" : 48, "type" : "word", "position" : 9 } ] }
能够看出,只是按照空格进行切分,2020
数字仍是在的,Java
的首字母仍是大写的,,
仍是保留的。
接下来看 Stop Analyzer
分词器:
它由 Lowe Case
的 Tokenizer
和 Stop
的 Token Filters
组成的,相较于刚才提到的 Simple Analyzer
,多了 stop 过滤,stop 就是会把 the
,a
,is
等修饰词去除,一样让咱们看下运行结果:
{ "tokens" : [ { "token" : "java", "start_offset" : 9, "end_offset" : 13, "type" : "word", "position" : 1 }, { "token" : "best", "start_offset" : 21, "end_offset" : 25, "type" : "word", "position" : 4 }, { "token" : "language", "start_offset" : 26, "end_offset" : 34, "type" : "word", "position" : 5 }, { "token" : "world", "start_offset" : 42, "end_offset" : 47, "type" : "word", "position" : 8 } ] }
能够看到 in
is
the
等词都被 stop filter
过滤掉了。
接下来看下 Keyword Analyzer
:
它其实不作分词处理,只是将输入做为 Term 输出,咱们来看下运行结果:
{ "tokens" : [ { "token" : "In 2020, Java is the best language in the world.", "start_offset" : 0, "end_offset" : 48, "type" : "word", "position" : 0 } ] }
咱们能够看到,没有对输入文本进行分词,而是直接做为 Term 输出了。
接下来看下 Pattern Analyzer
:
它能够经过正则表达式的方式进行分词,默认是用 \W+
进行分割的,也就是非字母的符合进行切分的,因为运行结果和 Stamdard Analyzer
同样,就不展现了。
ES 为不一样国家语言的输入提供了 Language Analyzer
分词器,在里面能够指定不一样的语言,咱们用 english
进行分词看下:
{ "tokens" : [ { "token" : "2020", "start_offset" : 3, "end_offset" : 7, "type" : "<NUM>", "position" : 1 }, { "token" : "java", "start_offset" : 9, "end_offset" : 13, "type" : "<ALPHANUM>", "position" : 2 }, { "token" : "best", "start_offset" : 21, "end_offset" : 25, "type" : "<ALPHANUM>", "position" : 5 }, { "token" : "languag", "start_offset" : 26, "end_offset" : 34, "type" : "<ALPHANUM>", "position" : 6 }, { "token" : "world", "start_offset" : 42, "end_offset" : 47, "type" : "<ALPHANUM>", "position" : 9 } ] }
能够看出 language
被改为了 languag
,同时它也是有 stop 过滤器的,好比 in
,is
等词也被去除了。
最后,让咱们看下中文分词:
中文分词有特定的难点,不像英文,单词有天然的空格做为分隔,在中文句子中,不能简单地切分红一个个的字,而是须要分红有含义的词,可是在不一样的上下文,是有不一样的理解的。
好比如下例子:
在这些,企业中,国有,企业,有十个/在这些,企业,中国,有企业,有十个 各国,有,企业,相继,倒闭/各,国有,企业,相继,倒闭 羽毛球,拍卖,完了/羽毛球拍,卖,完了
那么,让咱们来看下 ICU Analyzer
分词器,它提供了 Unicode 的支持,更好的支持亚洲语言!
咱们先用 standard
来分词,以便于和 ICU 进行对比。
GET _analyze { "analyzer": "standard", "text": "各国有企业相继倒闭" }
运行结果就不展现了,分词是一个字一个字切分的,明显效果不是很好,接下来用 ICU 进行分词,分词结果以下:
{ "tokens" : [ { "token" : "各国", "start_offset" : 0, "end_offset" : 2, "type" : "<IDEOGRAPHIC>", "position" : 0 }, { "token" : "有", "start_offset" : 2, "end_offset" : 3, "type" : "<IDEOGRAPHIC>", "position" : 1 }, { "token" : "企业", "start_offset" : 3, "end_offset" : 5, "type" : "<IDEOGRAPHIC>", "position" : 2 }, { "token" : "相继", "start_offset" : 5, "end_offset" : 7, "type" : "<IDEOGRAPHIC>", "position" : 3 }, { "token" : "倒闭", "start_offset" : 7, "end_offset" : 9, "type" : "<IDEOGRAPHIC>", "position" : 4 } ] }
能够看到分红了各国
,有
,企业
,相继
,倒闭
,显然比刚才的效果好了不少。
还有许多中文分词器,在这里列举几个:
IK:
jieba:
THULAC:
你们能够本身安装下,看下它中文分词效果。
本文主要介绍了 ElasticSearch 自带的分词器,学习了使用 _analyzer API
去查看它的分词状况,最后还介绍下中文分词是怎么作的。
参考文献
Elasticsearch顶尖高手系列
Elasticsearch核心技术与实战
https://www.elastic.co/guide/en/elasticsearch/reference/7.1/indices-analyze.html
https://www.elastic.co/guide/en/elasticsearch/reference/current/analyzer-anatomy.html