Lucene-2.2.0 源代码阅读学习(6)

Lucene分析器的实现。 Lucene分词器Tokenizer,它的继承子类的实现。 Tokenizer类的继承关系,如图所示: ChineseTokenizer类实现中文分词 中文分词在Lucene中的处理很简单,就是单个字分。它的实现类为ChineseTokenizer,在包org.apache.lucene.analysis.cn中,源代码如下: package org.apache.lu
相关文章
相关标签/搜索