Elasticsearch——IK分词器自定义词库

一、业务场景        Elasticsearch是一个基于Lucene的搜索服务器,其引入IK分词器后,可以对中文进行分词。IK分词器分词的原理是在源文件中收集了很多词汇,仅在其中一个主要词汇文件main.dic文件中就有27W的词汇量。但是有的时候仅用分词器本身提供的通用词汇无法满足自己的项目特定的业务需求,比如说我要以“最长的电影”这一歌名作为搜索条件,所得到的结果如下图所示。 二、新建
相关文章
相关标签/搜索