Apache Lucene 几种分词系统

一、 StopAnalyzer java

StopAnalyzer能过滤词汇中的特定字符串和词汇,而且完成大写转小写的功能。 算法

二、 StandardAnalyzer app

StandardAnalyzer根据空格和符号来完成分词,还能够完成数字、字母、E-mail地址、IP地址以及中文字符的分析处理,还能够支持过滤词表,用来代替StopAnalyzer可以实现的过滤功能。 学习

三、 SimpleAnalyzer 搜索引擎

SimpleAnalyzer具有基本西文字符词汇分析的分词器,处理词汇单元时,以非字母字符做为分割符号。分词器不能作词汇的过滤,之进行词汇的分析和分割。输出地词汇单元完成小写字符转换,去掉标点符号等分割符。 编码

在全文检索系统开发中,一般用来支持西文符号的处理,不支持中文。因为不完成单词过滤功能,因此不须要过滤词库支持。词汇分割策略上简单,使用非英文字符做为分割符,不须要分词词库的支持。 spa

四、 WhitespaceAnalyzer 设计

WhitespaceAnalyzer使用空格做为间隔符的词汇分割分词器。处理词汇单元的时候,以空格字符做为分割符号。分词器不作词汇过滤,也不进行小写字符转换。 对象

实际中能够用来支持特定环境下的西文符号的处理。因为不完成单词过滤和小写字符转换功能,也不须要过滤词库支持。词汇分割策略上简单使用非英文字符做为分割符,不须要分词词库支持。 继承

五、 KeywordAnalyzer

KeywordAnalyzer把整个输入做为一个单独词汇单元,方便特殊类型的文本进行索引和检索。针对邮政编码,地址等文本信息使用关键词分词器进行索引项创建很是方便。

六、 CJKAnalyzer

CJKAnalyzer内部调用CJKTokenizer分词器,对中文进行分词,同时使用StopFilter过滤器完成过滤功能,能够实现中文的多元切分和停用词过滤。在Lucene3.0版本中已经弃用。

七、 ChineseAnalyzer

ChineseAnalyzer功能与StandardAnalyzer分析器在处理中文是基本一致,都是切分红单个的双字节中文字符。在Lucene3.0版本中已经弃用。

八、 PerFieldAnalyzerWrapper

PerFieldAnalyzerWrapper功能主要用在针对不一样的Field采用不一样的Analyzer的场合。好比对于文件名,须要使用KeywordAnalyzer,而对于文件内容只使用StandardAnalyzer就能够了。经过addAnalyzer()能够添加分类器。

九、 IKAnalyzer

实现了以词典为基础的正反向全切分,以及正反向最大匹配切分两种方法。IKAnalyzer是第三方实现的分词器,继承自Lucene的Analyzer类,针对中文文本进行处理。

十、JE-Analysis

JE-Analysis是Lucene的中文分词组件,须要下载。

十一、 ICTCLAS4J

ictclas4j中文分词系统是sinboy在中科院张华平和刘群老师的研制的FreeICTCLAS的基础上完成的一个java开源分词项目,简化了原分词程序的复杂度,旨在为广大的中文分词爱好者一个更好的学习机会。

十二、 Imdict-Chinese-Analyzer

imdict-chinese-analyzer 是 imdict智能词典 的智能中文分词模块,算法基于隐马尔科夫模型(Hidden Markov Model, HMM),是中国科学院计算技术研究所的ictclas中文分词程序的从新实现(基于Java),能够直接为lucene搜索引擎提供简体中文分词支持。

1三、 Paoding Analysis

Paoding Analysis中文分词具备极 高效率 和 高扩展性。引入隐喻,采用彻底的面向对象设计,构思先进。其效率比较高,在PIII 1G内存我的机器上,1秒可准确分词100万汉字。采用基于不限制个数的词典文件对文章进行有效切分,使可以将对词汇分类定义。可以对未知的词汇进行合理解析。

1四、 MMSeg4J

mmseg4j 用 Chih-Hao Tsai 的 MMSeg 算法(http://technology.chtsai.org/mmseg/ )实现的中文分词器,并实现 lucene 的 analyzer 和 solr 的TokenizerFactory 以方便在Lucene和Solr中使用。 MMSeg 算法有两种分词方法:Simple和Complex,都是基于正向最大匹配。Complex 加了四个规则过虑。官方说:词语的正确识别率达到了 98.41%。mmseg4j 已经实现了这两种分词算法。

相关文章
相关标签/搜索