中文分词器

中文分词器 使用因为Elasticsearch中默认的标准分词器分词器对中文分词不是很友好,会将中文词语拆分成一个一个中文的汉子。因此引入中文分词器-es-ik插件 在下载使用插件时候 一定要注意 版本对应! github地址: https://github.com/medcl/elasticsearch-analysis-ik/releases/   这个插件里面用到HttpClient 因为要
相关文章
相关标签/搜索