给LUKE增长word分词器

word分词是一个Java实现的分布式中文分词组件html

 

一、下载http://luke.googlecode.com/files/lukeall-4.0.0-ALPHA.jar(国内不能访问)java

二、下载并解压Java中文分词组件word-1.0-bin.zipgit

三、将解压后的 Java中文分词组件word-1.0-bin/word-1.0 文件夹里面的4个jar包解压到当前文件夹,用压缩解压工具如winrar打开lukeall-4.0.0-ALPHA.jar,将当前文件夹里面除了.jar、.bat、.html文件外的其余全部文件拖到lukeall-4.0.0-ALPHA.jar里面 github

四、执行命令 java  -jar  lukeall-4.0.0-ALPHA.jar 启动luke,在Search选项卡的Analysis里面就能够选择 org.apdplat.word.lucene.ChineseWordAnalyzer 分词器了分布式

五、在Plugins选项卡的Available analyzers found on the current classpath里面也能够选择 org.apdplat.word.lucene.ChineseWordAnalyzer 分词器工具


下载已经集成好的Luke插件:google

lukeall-4.0.0-ALPHA-with-word-1.0.jar (适用于lucene4.0.0)spa

lukeall-4.10.3-with-word-1.2.jar(适用于lucene4.10.3)插件

以下图所示:code

  

相关文章
相关标签/搜索