简介
fastHan是基于fastNLP与pytorch实现的中文天然语言处理工具,像spacy同样调用方便。git
其内核为基于BERT的联合模型,其在13个语料库中进行训练,可处理中文分词、词性标注、依存句法分析、命名实体识别四项任务。fastHan共有base与large两个版本,分别利用BERT的前四层与前八层。base版本在总参数量150MB的状况下各项任务均有不错表现,large版本则接近甚至超越SOTA模型。github
项目地址为:https://github.com/fastnlp/fastHan服务器
安装
fastHan的安装很是简便。它存在以下包的依赖:ide
fastNLP>=0.5.0函数
pytorch>=1.0.0工具
执行指令 pip install fastHan 便可安装。测试
使用
fastHan的使用很是简单,只须要两步,加载模型、输入句子。网站
加载模型:执行如下代码便可加载模型:ui


用户首次初始化模型时模块将自动从服务器下载参数。模型默认初始化base版本,可修改model_type参数值为’large’加载large版本。spa
输入句子:输入模型的能够是单独的字符串,也但是由字符串组成的列表。若是输入的是列表,模型将一次性处理全部输入的字符串,因此请自行控制 batch size。模型对句子进行依存分析、命名实体识别的简单例子以下:


其中,target参数可在'Parsing'、'CWS'、'POS'、'NER'四个选项中取值,模型将分别进行依存分析、分词、词性标注、命名实体识别任务,模型默认进行CWS任务。其中词性标注任务包含了分词的信息,而依存分析任务又包含了词性标注任务的信息。命名实体识别任务相较其余任务独立。
模型的输出是在fastHan模块中定义的sentence与token类。模型将输出一个由sentence组成的列表,而每一个sentence又由token组成。每一个token自己表明一个被分好的词,有pos、head、head_label、ner四项属性,表明了该词的词性、依存关系、命名实体识别信息。
若是分别运行CWS、POS、Parsing任务,模型输出的分词结果等可能存在冲突。若是想得到不冲突的各种信息,能够直接运行包含所有所需信息的那项任务。
模型的POS、Parsing任务均使用CTB标签集。NER使用msra标签集。
正如上图所示,模型基础的使用流程很是简单。此外,模型还可调整分词风格、切换设备。
调整分词风格:模型是在13个语料库中进行训练,其中包含了10个分词语料库。不一样语料库的分词粒度均不一样,如本模型默认的CTB语料库分词粒度较细。若是想切换不一样的粒度,可使用模型的set_cws_style函数,例子以下:


在分词风格中选择'as'、'cityu'可进行繁体字分词,这两项为繁体语料库。因为各项任务共享词表、词嵌入,这意味着即便不切换模型的分词风格,模型对繁体字也具备执行分词及其余任务的能力。此外,模型对数字、英文字母也具备必定的识别能力。
切换设备:可以使用模型的set_device函数,令模型在cuda上运行或切换回cpu,示例以下:


模型表现
模型在如下数据集进行测试和训练:
- CWS:AS, CITYU, CNC, CTB, MSR, PKU, SXU, UDC, WTB, ZX
- NER:MSRA、OntoNotes
- POS & Parsing:CTB9
注:模型在训练NER OntoNotes时将其标签集转换为与MSRA一致。
最终模型在各项任务中取得的F值以下:


表格中单位为百分数。CWS的成绩是10项任务的平均成绩。Parsing中的两个成绩分别表明F_{ldep}和F_{udep}。SOTA模型的数据来自笔者对网上资料及论文的查阅,若有缺漏请指正,不胜感激。这五项SOTA表现分别来自以下五篇论文:
[1] Huang W, Cheng X, Chen K, et al. Toward Fast and Accurate Neural Chinese Word Segmentation with Multi-Criteria Learning.[J]. arXiv: Computation and Language, 2019.
[2] Hang Yan, Xipeng Qiu, and Xuanjing Huang. "A Graph-based Model for Joint Chinese Word Segmentation and Dependency Parsing." Transactions of the Association for Computational Linguistics 8 (2020): 78-92.
[3] Meng Y, Wu W, Wang F, et al. Glyce: Glyph-vectors for Chinese Character Representations[J]. arXiv: Computation and Language, 2019.
[4] Diao S, Bai J, Song Y, et al. ZEN: Pre-training Chinese Text Encoder Enhanced by N-gram Representations[J]. arXiv: Computation and Language, 2019.
[5] Jie Z, Lu W. Dependency-Guided LSTM-CRF for Named Entity Recognition[C]. international joint conference on natural language processing, 2019: 3860-3870.
更多关于模型结构、模型训练的信息,将来将在项目网站中进行更新。