elasticsearch之ik分词器插件安装

最近学习es,记录下怎么安装ik分词器,方便参考。git

ik分词器安装很简单,github

进入https://github.com/medcl/elasticsearch-analysis-ik/releases

下载对应es版本的zip包,该包是无需用mvn打包版本,解压zip,在es的plugins目录下建立名为ik的文件夹,将解压后的文件放到ik文件夹下面浏览器

重启es便可;elasticsearch

测试:学习

建立名为“index”的索引,浏览器输入以下:测试

http://localhost:9200/index/_analyze?analyzer=ik&pretty=true&text=我是中国人

结果只要不是单个分词结果就代表成功了!spa

切记:路径绝对不能有空格,不然会报错IKanalyze.cfg.xml找不到,或者 AccessControlException  read 读取问题!xml

es 6.5.3版本es的安装(应该适用6.x版本)blog

    进入es的bin目录下运行命令:索引

elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.5.3/elasticsearch-analysis-ik-6.5.3.zip

     出现以下窗口说明安装成功(也可查看plugins目录下是否有ik的文件夹):

                         

若是已安装则会提示卸载,运行以下命令便可:

elasticsearch-plugin remove analysis-ik;

 

2019/1/28追加记录:

es内置分词器
standard分词器:(默认的)它将词汇单元转换成小写形式,并去掉停用词(a、an、the等没有实际意义的词)和标点符号,支持中文采用的方法为单字切分(例如,‘你好’切分为‘你’和‘好’)。
simple分词器:首先经过非字母字符来分割文本信息,而后将词汇单元同一为小写形式。该分析器会去掉数字类型的字符。
Whitespace分词器:仅仅是去除空格,对字符没有lowcase(大小写转换)化,不支持中文;而且不对生成的词汇单元进行其余的标准化处理。
language分词器:特定语言的分词器,不支持中文;

查看es分词结果

相关文章
相关标签/搜索