python调用hanlp分词包手记java
Hanlp做为一款重要的分词工具,本月初的时候看到大快搜索发布了hanlp的1.7版本,新增了文本聚类、流水线分词等功能。关于hanlp1.7版本的新功能,后面有使用的到时候在给你们分享。本篇分享一个在python里调用hanlp分词包的过程文章,供须要的朋友参考学习交流!如下为文章内容:python
1.在python下安装pyhanlp函数
sudo pip install pyhanlp工具
(详见pyhanlp官方文档)学习
2.pyhanlp的一些使用方法spa
(1)Hanlp.segment的使用3d
from pyhanlp import *blog
print HanLP.segment("今天开心了吗?")token
#输出:[今天/t, 开心/a, 了/ule, 吗/y, ?/w]ip
(pyhanlp里已经含有如下这些功能了,能够直接调用)
1 - # API列表
2CustomDictionary= LazyLoadingJClass('com.hankcs.hanlp.dictionary.CustomDictionary')
3 HanLP = SafeJClass('com.hankcs.hanlp.HanLP')
4 HanLP.Config = JClass('com.hankcs.hanlp.HanLP$Config')
5PerceptronLexicalAnalyzer= SafeJClass('com.hankcs.hanlp.model.perceptron.PerceptronLexicalAnalyzer')
6 DoubleArrayTrieSegment = SafeJClass('com.hankcs.hanlp.seg.Other.DoubleArrayTrieSegment')
7AhoCorasickDoubleArrayTrie = SafeJClass('com.hankcs.hanlp.collection.AhoCorasick.AhoCorasickDoubleArrayTrie')
8IOUtil = SafeJClass('com.hankcs.hanlp.corpus.io.IOUtil')
9TraditionalChineseTokenizer=SafeJClass('com.hankcs.hanlp.tokenizer.TraditionalChineseTokenizer')
调用方法
analyzer=PerceptronLexicalAnalyzer()
a =analyzer.analyze("今天开心了吗?")
print a
3.其它更多的功能的实现。
---------------------
做者:小傻子kkk