首先须要导入两个jar包(lucene-core-2.4.1.jar,je-analysis-1.5.1.jar,lucene-highlighter-2.4.1.jar),注意版本的兼容问题,这里提供一个共享网盘的连接:java
连接:http://pan.baidu.com/s/1dFFf3A5 密码:djez算法
//采用正向最大匹配的中文分词算法,至关于分词粒度等于0
MMAnalyzer analyzer = new MMAnalyzer();
//参数为分词粒度:当字数等于或超过该参数,且能成词,该词就被切分出来
MMAnalyzer analyzer = new MMAnalyzer(int wordLength);
//字符串切分,经常使用于客户的关键字输入
analyzer.segment(String text, String separator);
词典维护API(静态方法):
//增长一个新词典,采用每行一个词的读取方式(注意:多线程状态下此时的分词效果将不可预料)
MMAnalyzer.addDictionary(Reader reader);
//增长一个新词
MMAnalyzer.addWord(String newWord);
//删除词库中的所有词语(注意:很是危险的操做,在没有加载新的词库前全部的分词都将失效)
MMAnalyzer.clear();
//词库中是否包含该词
MMAnalyzer.contains(String word);
//从词库中移除该词
MMAnalyzer.removeWord(String word);
//当前词库中包含的词语总数
MMAnalyzer.size();apache
三、使用说明多线程
符串切分 | |
package demo.analysis; | |
import java.io.IOException; | |
import jeasy.analysis.MMAnalyzer; | |
public class Segment | |
{ | |
public static void main(String[] args) | |
{ | |
String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示," | |
+ "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经形成至少5427人死亡," | |
+ "20000余人受伤,近20万人无家可归。"; | |
MMAnalyzer analyzer = new MMAnalyzer(); | |
try | |
{ | |
System.out.println(analyzer.segment(text, " | ")); | |
} | |
catch (IOException e) | |
{ | |
e.printStackTrace(); | |
} | |
} | |
} | |
生成效果: | |
据 | 路透社 | 报道 | 印度尼西亚 | 社会 | 事务 | 部 | 官员 | 星期二 | 29日 | 表示 | 日惹 | 市 |spa 附近 | 当地时间 | 27日 | 晨 | 5时 | 53分 | 发生 | 里氏 | 6.2级 | 地震 | 已经 | 形成 | 至少 |线程 5427人 | 死亡 | 20000 | 余人 | 受伤 | 近 | 20万人 | 无家可归 |token |
|
Lucene搜索 | |
package demo.analysis; | |
import jeasy.analysis.MMAnalyzer; | |
import org.apache.lucene.analysis.Analyzer; | |
import org.apache.lucene.document.Document; | |
import org.apache.lucene.document.Field; | |
import org.apache.lucene.index.IndexWriter; | |
import org.apache.lucene.queryParser.QueryParser; | |
import org.apache.lucene.search.Hits; | |
import org.apache.lucene.search.IndexSearcher; | |
import org.apache.lucene.search.Query; | |
import org.apache.lucene.store.Directory; | |
import org.apache.lucene.store.RAMDirectory; | |
public class Segment | |
{ | |
public static void main(String[] args) | |
{ | |
String fieldName = "text"; | |
String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示," | |
+ "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经形成至少5427人死亡," | |
+ "20000余人受伤,近20万人无家可归。"; //检索内容 | |
//采用正向最大匹配的中文分词算法 | |
Analyzer analyzer = new MMAnalyzer(); | |
Directory directory = new RAMDirectory(); | |
//Directory directory = FSDirectory.getDirectory("/tmp/testindex", true); | |
try | |
{ | |
IndexWriter iwriter = new IndexWriter(directory, analyzer, true); | |
iwriter.setMaxFieldLength(25000); | |
Document doc = new Document(); | |
doc.add(new Field(fieldName, text, Field.Store.YES, Field.Index.TOKENIZED)); | |
iwriter.addDocument(doc); | |
iwriter.close(); | |
IndexSearcher isearcher = new IndexSearcher(directory); | |
QueryParser parser = new QueryParser(fieldName, analyzer); | |
Query query = parser.parse("印度尼西亚 6.2级地震");//检索词 | |
Hits hits = isearcher.search(query); | |
System.out.println("命中:" + hits.length()); | |
for (int i = 0; i < hits.length(); i++) | |
{ | |
Document hitDoc = hits.doc(i); | |
System.out.println("内容:" + hitDoc.get(fieldName)); | |
} | |
isearcher.close(); | |
directory.close(); | |
} | |
catch (Exception e) | |
{ | |
e.printStackTrace(); | |
} | |
} | |
} | |
生成效果: | |
命中:1 | |
内容:据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,日惹市附近当地时间27日晨5时53分发生的 里氏6.2级地震已经形成至少5427人死亡,20000余人受伤,近20万人无家可归。 |
|
搜索词加亮 | |
package demo.analysis; | |
import jeasy.analysis.MMAnalyzer; | |
import org.apache.lucene.analysis.Analyzer; | |
import org.apache.lucene.analysis.TokenStream; | |
import org.apache.lucene.document.Document; | |
import org.apache.lucene.document.Field; | |
import org.apache.lucene.index.IndexReader; | |
import org.apache.lucene.index.IndexWriter; | |
import org.apache.lucene.index.TermPositionVector; | |
import org.apache.lucene.queryParser.QueryParser; | |
import org.apache.lucene.search.Hits; | |
import org.apache.lucene.search.IndexSearcher; | |
import org.apache.lucene.search.Query; | |
import org.apache.lucene.search.highlight.Highlighter; | |
import org.apache.lucene.search.highlight.QueryScorer; | |
import org.apache.lucene.search.highlight.TokenSources; | |
import org.apache.lucene.store.Directory; | |
import org.apache.lucene.store.RAMDirectory; | |
public class Segment | |
{ | |
public static void main(String[] args) | |
{ | |
String fieldName = "text"; | |
String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示," | |
+ "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经形成至少5427人死亡," | |
+ "20000余人受伤,近20万人无家可归。"; //检索内容 | |
//采用正向最大匹配的中文分词算法 | |
Analyzer analyzer = new MMAnalyzer(); | |
Directory directory = new RAMDirectory(); | |
//Directory directory = FSDirectory.getDirectory("/tmp/testindex", true); | |
try | |
{ | |
IndexWriter iwriter = new IndexWriter(directory, analyzer, true); | |
iwriter.setMaxFieldLength(25000); | |
Document doc = new Document(); | |
doc.add(new Field(fieldName, text, Field.Store.YES, | |
Field.Index.TOKENIZED, | |
Field.TermVector.WITH_POSITIONS_OFFSETS)); | |
iwriter.addDocument(doc); | |
iwriter.close(); | |
IndexSearcher isearcher = new IndexSearcher(directory); | |
QueryParser parser = new QueryParser(fieldName, analyzer); | |
Query query = parser.parse("印度尼西亚 6.2级地震");//检索词 | |
Hits hits = isearcher.search(query); | |
System.out.println("命中:" + hits.length()); | |
Highlighter highlighter = new Highlighter(new QueryScorer(query)); | |
for (int i = 0; i < hits.length(); i++) | |
{ | |
text = hits.doc(i).get(fieldName); | |
TermPositionVector tpv = (TermPositionVector) IndexReader.open( | |
directory).getTermFreqVector(hits.id(i), fieldName); | |
TokenStream tokenStream = TokenSources.getTokenStream(tpv); | |
String result = highlighter.getBestFragments(tokenStream, text, 3, "..."); | |
System.out.println("内容:" + result); | |
} | |
isearcher.close(); | |
directory.close(); | |
} | |
catch (Exception e) | |
{ | |
e.printStackTrace(); | |
} | |
} | |
} |