pkuseg简单易用,支持细分领域分词,有效提高了分词准确度。python
pkuseg具备以下几个特色:linux
经过PyPI安装(自带模型文件):git
pip3 install pkuseg 以后经过import pkuseg来引用
建议更新到最新版本以得到更好的开箱体验:github
pip3 install -U pkuseg
若是PyPI官方源下载速度不理想,建议使用镜像源,好比:
初次安装:web
pip3 install -i https://pypi.tuna.tsinghua.edu.cn/simple pkuseg
更新:windows
pip3 install -i https://pypi.tuna.tsinghua.edu.cn/simple -U pkuseg
注意:安装方式一和二目前仅支持linux,mac,windows 64 位的python3.5,python 3.6,python 3.7版本。网络
若是不使用pip安装方式,选择从GitHub下载,可运行如下命令安装:工具
python setup.py build_ext -i
GitHub的代码并不包括预训练模型,所以须要用户自行下载或训练模型,预训练模型可详见release。使用时需设定"model_name"为模型文件。post
咱们选择jieba、THULAC等国内表明分词工具包与pkuseg作性能比较。性能
考虑到jieba分词和THULAC工具包等并无提供细领域的预训练模型,为了便于比较,咱们从新使用它们提供的训练接口在细领域的数据集上进行训练,用训练获得的模型进行中文分词。
咱们选择Linux做为测试环境,在新闻数据(MSRA)、混合型文本(CTB8)、网络文本(WEIBO)数据上对不一样工具包进行了准确率测试。咱们使用了第二届国际汉语分词评测比赛提供的分词评价脚本。其中MSRA与WEIBO使用标准训练集测试集划分,CTB8采用随机划分。对于不一样的分词工具包,训练测试数据的划分都是一致的;即全部的分词工具包都在相同的训练集上训练,在相同的测试集上测试。对于全部数据集,pkuseg使用了不使用词典的训练和测试接口。如下是pkuseg训练和测试代码示例:
pkuseg.train('msr_training.utf8', 'msr_test_gold.utf8', './models') pkuseg.test('msr_test.raw', 'output.txt', user_dict=None)
如下是在不一样数据集上的对比结果:
MSRA | Precision | Recall | F-score |
---|---|---|---|
jieba | 87.01 | 89.88 | 88.42 |
THULAC | 95.60 | 95.91 | 95.71 |
pkuseg | 96.94 | 96.81 | 96.88 |
Precision | Recall | F-score | |
---|---|---|---|
jieba | 87.79 | 87.54 | 87.66 |
THULAC | 93.40 | 92.40 | 92.87 |
pkuseg | 93.78 | 94.65 | 94.21 |
考虑到不少用户在尝试分词工具的时候,大多数时候会使用工具包自带模型测试。为了直接对比“初始”性能,咱们也比较了各个工具包的默认模型在不一样领域的测试效果。请注意,这样的比较只是为了说明默认状况下的效果,并不必定是公平的。
Default | MSRA | CTB8 | PKU | All Average | |
---|---|---|---|---|---|
jieba | 81.45 | 79.58 | 81.83 | 83.56 | 81.61 |
THULAC | 85.55 | 87.84 | 92.29 | 86.65 | 88.08 |
pkuseg | 87.29 | 91.77 | 92.68 | 93.43 | 91.29 |
其中,All Average
显示的是在全部测试集上F-score的平均。
更多详细比较可参见和现有工具包的比较。
如下代码示例适用于python交互式环境。
代码示例1:使用默认配置进行分词(若是用户没法肯定分词领域,推荐使用默认模型分词)
import pkuseg seg = pkuseg.pkuseg() # 以默认配置加载模型 text = seg.cut('我爱北京天安门') # 进行分词 print(text)
代码示例2:细领域分词(若是用户明确分词领域,推荐使用细领域模型分词)
import pkuseg seg = pkuseg.pkuseg(model_name='medicine') # 程序会自动下载所对应的细领域模型 text = seg.cut('我爱北京天安门') # 进行分词 print(text)
代码示例3:分词同时进行词性标注,各词性标签的详细含义可参考 tags.txt
import pkuseg seg = pkuseg.pkuseg(postag=True) # 开启词性标注功能 text = seg.cut('我爱北京天安门') # 进行分词和词性标注 print(text)
代码示例4:对文件分词
import pkuseg # 对input.txt的文件分词输出到output.txt中 # 开20个进程 pkuseg.test('input.txt', 'output.txt', nthread=20)
代码示例5:额外使用用户自定义词典
import pkuseg seg = pkuseg.pkuseg(user_dict='my_dict.txt') # 给定用户词典为当前目录下的"my_dict.txt" text = seg.cut('我爱北京天安门') # 进行分词 print(text)
代码示例6:使用自训练模型分词(以CTB8模型为例)
import pkuseg seg = pkuseg.pkuseg(model_name='./ctb8') # 假设用户已经下载好了ctb8的模型并放在了'./ctb8'目录下,经过设置model_name加载该模型 text = seg.cut('我爱北京天安门') # 进行分词 print(text)
代码示例7:训练新模型 (模型随机初始化)
import pkuseg # 训练文件为'msr_training.utf8' # 测试文件为'msr_test_gold.utf8' # 训练好的模型存到'./models'目录下 # 训练模式下会保存最后一轮模型做为最终模型 # 目前仅支持utf-8编码,训练集和测试集要求全部单词以单个或多个空格分开 pkuseg.train('msr_training.utf8', 'msr_test_gold.utf8', './models')
代码示例8:fine-tune训练(从预加载的模型继续训练)
import pkuseg # 训练文件为'train.txt' # 测试文件为'test.txt' # 加载'./pretrained'目录下的模型,训练好的模型保存在'./models',训练10轮 pkuseg.train('train.txt', 'test.txt', './models', train_iter=10, init_model='./pretrained')
模型配置
pkuseg.pkuseg(model_name = "default", user_dict = "default", postag = False) model_name 模型路径。 "default",默认参数,表示使用咱们预训练好的混合领域模型(仅对pip下载的用户)。 "news", 使用新闻领域模型。 "web", 使用网络领域模型。 "medicine", 使用医药领域模型。 "tourism", 使用旅游领域模型。 model_path, 从用户指定路径加载模型。 user_dict 设置用户词典。 "default", 默认参数,使用咱们提供的词典。 None, 不使用词典。 dict_path, 在使用默认词典的同时会额外使用用户自定义词典,能够填本身的用户词典的路径,词典格式为一行一个词。 postag 是否进行词性分析。 False, 默认参数,只进行分词,不进行词性标注。 True, 会在分词的同时进行词性标注。
对文件进行分词
pkuseg.test(readFile, outputFile, model_name = "default", user_dict = "default", postag = False, nthread = 10) readFile 输入文件路径。 outputFile 输出文件路径。 model_name 模型路径。同pkuseg.pkuseg user_dict 设置用户词典。同pkuseg.pkuseg postag 设置是否开启词性分析功能。同pkuseg.pkuseg nthread 测试时开的进程数。
模型训练
pkuseg.train(trainFile, testFile, savedir, train_iter = 20, init_model = None) trainFile 训练文件路径。 testFile 测试文件路径。 savedir 训练模型的保存路径。 train_iter 训练轮数。 init_model 初始化模型,默认为None表示使用默认初始化,用户能够填本身想要初始化的模型的路径如init_model='./models/'。
当将以上代码示例置于文件中运行时,如涉及多进程功能,请务必使用if __name__ == '__main__'
保护全局语句,如:
mp.py文件
import pkuseg if __name__ == '__main__': pkuseg.test('input.txt', 'output.txt', nthread=20) pkuseg.train('msr_training.utf8', 'msr_test_gold.utf8', './models', nthread=20)
运行
python3 mp.py
详见没法使用多进程分词和训练功能,提示RuntimeError和BrokenPipeError。
在Windows平台上,请当文件足够大时再使用多进程分词功能,详见关于多进程速度问题。
从pip安装的用户在使用细领域分词功能时,只须要设置model_name字段为对应的领域便可,会自动下载对应的细领域模型。
从github下载的用户则须要本身下载对应的预训练模型,并设置model_name字段为预训练模型路径。预训练模型能够在release部分下载。如下是对预训练模型的说明:
news: 在MSRA(新闻语料)上训练的模型。
web: 在微博(网络文本语料)上训练的模型。
medicine: 在医药领域上训练的模型。
tourism: 在旅游领域上训练的模型。
mixed: 混合数据集训练的通用模型。随pip包附带的是此模型。
欢迎更多用户能够分享本身训练好的细分领域模型。
该代码包主要基于如下科研论文,如使用了本工具,请引用如下论文:
PKUSeg的做者有三位,Ruixuan Luo (罗睿轩),Jingjing Xu (许晶晶) ,以及Xu Sun (孙栩) 。
工具包的诞生,也是基于其中两位参与的ACL论文。
准确率又那么高,还不去试试?
GitHub传送门:
https://github.com/lancopku/PKUSeg-python
论文传送门:
http://www.aclweb.org/anthology/P12-1027