笔记转载于GitHub项目:https://github.com/NLP-LOVE/Introduction-NLPjava
在基于词典的中文分词中,词的定义要现实得多:词典中的字符串就是词。python
词的性质--齐夫定律:一个单词的词频与它的词频排名成反比。git
互联网词库(SogouW, 15万个词条)、清华大学开放中文词库(THUOCL)、HanLP词库(千万级词条)github
这里以HanLP附带的迷你核心词典为例(本项目路径):data/dictionnary/CoreNatureDictionary.mini.txt算法
上升 v 98 vn 18 上升期 n 1 上升股 n 1 上午 t 147 上半叶 t 3 上半场 n 2 上半夜 t 1
HanLP中的词典格式是一种以空格分隔的表格形式,第一列是单词自己,以后每两列分别表示词性与相应的词频。数组
首先,加载词典:数据结构
def load_dictionary(): dic = set() # 按行读取字典文件,每行第一个空格以前的字符串提取出来。 for line in open("CoreNatureDictionary.mini.txt","r"): dic.add(line[0:line.find(' ')]) return dic
彻底切分app
指的是,找出一段文本中的全部单词。机器学习
def fully_segment(text, dic): word_list = [] for i in range(len(text)): # i 从 0 到text的最后一个字的下标遍历 for j in range(i + 1, len(text) + 1): # j 遍历[i + 1, len(text)]区间 word = text[i:j] # 取出连续区间[i, j]对应的字符串 if word in dic: # 若是在词典中,则认为是一个词 word_list.append(word) return word_list dic = load_dictionary() print(fully_segment('就读北京大学', dic))
输出:学习
['就', '就读', '读', '北', '北京', '北京大学', '京', '大', '大学', '学']
输出了全部可能的单词。因为词库中含有单字,因此结果中也出现了一些单字。
正向最长匹配
上面的输出并非中文分词,咱们更须要那种有意义的词语序列,而不是全部出如今词典中的单词所构成的链表。好比,咱们但愿“北京大学”成为一整个词,而不是“北京 + 大学”之类的碎片。具体来讲,就是在以某个下标为起点递增查词的过程当中,优先输出更长的单词,这种规则被称为最长匹配算法。从前日后匹配则称为正向最长匹配,反之则称为逆向最长匹配。
def forward_segment(text, dic): word_list = [] i = 0 while i < len(text): longest_word = text[i] # 当前扫描位置的单字 for j in range(i + 1, len(text) + 1): # 全部可能的结尾 word = text[i:j] # 从当前位置到结尾的连续字符串 if word in dic: # 在词典中 if len(word) > len(longest_word): # 而且更长 longest_word = word # 则更优先输出 word_list.append(longest_word) # 输出最长词 i += len(longest_word) # 正向扫描 return word_list dic = load_dictionary() print(forward_segment('就读北京大学', dic)) print(forward_segment('研究生命起源', dic))
输出:
['就读', '北京大学'] ['研究生', '命', '起源']
第二句话就会产生偏差了,咱们是须要把“研究”提取出来,结果按照正向最长匹配算法就提取出了“研究生”,因此人们就想出了逆向最长匹配。
逆向最长匹配
def backward_segment(text, dic): word_list = [] i = len(text) - 1 while i >= 0: # 扫描位置做为终点 longest_word = text[i] # 扫描位置的单字 for j in range(0, i): # 遍历[0, i]区间做为待查询词语的起点 word = text[j: i + 1] # 取出[j, i]区间做为待查询单词 if word in dic: if len(word) > len(longest_word): # 越长优先级越高 longest_word = word break word_list.insert(0, longest_word) # 逆向扫描,因此越先查出的单词在位置上越靠后 i -= len(longest_word) return word_list dic = load_dictionary() print(backward_segment('研究生命起源', dic)) print(backward_segment('项目的研究', dic))
输出:
['研究', '生命', '起源'] ['项', '目的', '研究']
第一句正确了,但下一句又出错了,可谓拆东墙补西墙。另外一些人提出综合两种规则,期待它们取长补短,称为双向最长匹配。
双向最长匹配
这是一种融合两种匹配方法的复杂规则集,流程以下:
def count_single_char(word_list: list): # 统计单字成词的个数 return sum(1 for word in word_list if len(word) == 1) def bidirectional_segment(text, dic): f = forward_segment(text, dic) b = backward_segment(text, dic) if len(f) < len(b): # 词数更少优先级更高 return f elif len(f) > len(b): return b else: if count_single_char(f) < count_single_char(b): # 单字更少优先级更高 return f else: return b # 都相等时逆向匹配优先级更高 print(bidirectional_segment('研究生命起源', dic)) print(bidirectional_segment('项目的研究', dic))
输出:
['研究', '生命', '起源'] ['项', '目的', '研究']
经过以上几种切分算法,咱们能够作一个对比:
上图显示,双向最长匹配的确在二、三、5这3种状况下选择出了最好的结果,但在4号句子上选择了错误的结果,使得最终正确率 3/6 反而小于逆向最长匹配的 4/6 , 由此,规则系统的脆弱可见一斑。规则集的维护有时是拆东墙补西墙,有时是帮倒忙。
匹配算法的瓶颈之一在于如何判断集合(词典)中是否含有字符串。若是用有序集合TreeMap)的话,复杂度是o(logn) ( n是词典大小);若是用散列表( Java的HashMap. Python的dict )的话,帐面上的时间复杂度虽然降低了,但内存复杂度却上去了。有没有速度又快、内存又省的数据结构呢?这就是字典树。
什么是字典树
字符串集合经常使用宇典树(trie树、前缀树)存储,这是一种字符串上的树形数据结构。字典树中每条边都对应一个字, 从根节点往下的路径构成一个个字符串。字典树并不直接在节点上存储字符串, 而是将词语视做根节点到某节点之间的一条路径,并在终点节点(蓝色) 上作个标记“该节点对应词语的结尾”。字符串就是一 条路径,要查询一个单词,只需顺着这条路径从根节点往下走。若是能走到特殊标记的节点,则说明该字符串在集合中,不然说明不存在。一个典型的字典树以下图所示所示。
其中,蓝色标记着该节点是一个词的结尾,数字是人为的编号。按照路径咱们能够获得以下表所示:
词语 | 路径 |
---|---|
入门 | 0-1-2 |
天然 | 0-3-4 |
天然人 | 0-3-4-5 |
天然语言 | 0-3-4-6-7 |
自语 | 0-3-8 |
当词典大小为 n 时,虽然最坏状况下字典树的复杂度依然是O(logn) (假设子节点用对数复杂度的数据结构存储,全部词语都是单字),但它的实际速度比二分查找快。这是由于随着路径的深刻,前缀匹配是递进的过程,算法没必要比较字符串的前缀。
字典树的实现
由上图可知,每一个节点都应该至少知道本身的子节点与对应的边,以及本身是否对应一个词。若是要实现映射而不是集合的话,还须要知道本身对应的值。咱们约定用值为None表示节点不对应词语,虽然这样就不能插人值为None的键了,但实现起来更简洁。那么字典树的实现参见项目路径(与书上略有不一样,我写的比较简洁):code/ch02/trie.py
经过debug运行 trie.py 代码,能够观察到 trie 类的字典树结构:
字典树的数据结构在以上的切分算法中已经很快了,但厉害的是做者经过本身的努力改进了基于字典树的算法,把分词速度推向了千万字每秒的级别,这里不一一详细介绍,详情见书,主要按照如下递进关系优化:
DoubleArrayTrieSegment
DoubleArrayTrieSegment分词器是对DAT最长匹配的封装,默认加载hanlp.properties中CoreDictionaryPath制定的词典。
from pyhanlp import * # 不显示词性 HanLP.Config.ShowTermNature = False # 可传入自定义字典 [dir1, dir2] segment = DoubleArrayTrieSegment() # 激活数字和英文识别 segment.enablePartOfSpeechTagging(True) print(segment.seg("江西鄱阳湖干枯,中国最大淡水湖变成大草原")) print(segment.seg("上海市虹口区大连西路550号SISU"))
输出:
[江西, 鄱阳湖, 干枯, ,, 中国, 最大, 淡水湖, 变成, 大草原] [上海市, 虹口区, 大连, 西路, 550, 号, SISU]
去掉停用词
停用词词典文件:data/dictionnary/stopwords.txt
该词典收录了常见的中英文无心义词汇(不含敏感词),每行一个词。
def load_from_file(path): """ 从词典文件加载DoubleArrayTrie :param path: 词典路径 :return: 双数组trie树 """ map = JClass('java.util.TreeMap')() # 建立TreeMap实例 with open(path) as src: for word in src: word = word.strip() # 去掉Python读入的\n map[word] = word return JClass('com.hankcs.hanlp.collection.trie.DoubleArrayTrie')(map) ## 去掉停用词 def remove_stopwords_termlist(termlist, trie): return [term.word for term in termlist if not trie.containsKey(term.word)] trie = load_from_file('stopwords.txt') termlist = segment.seg("江西鄱阳湖干枯了,中国最大的淡水湖变成了大草原") print('去掉停用词前:', termlist) print('去掉停用词后:', remove_stopwords_termlist(termlist, trie))
输出:
去掉停用词前: [江西, 鄱阳湖, 干枯, 了, ,, 中国, 最大, 的, 淡水湖, 变成, 了, 大草原] 去掉停用词后: ['江西', '鄱阳湖', '干枯', '中国', '最大', '淡水湖', '变成', '大草原']
HanLP何晗--《天然语言处理入门》笔记:
https://github.com/NLP-LOVE/Introduction-NLP
项目持续更新中......
目录
章节 |
---|
第 1 章:新手上路 |
第 2 章:词典分词 |
第 3 章:二元语法与中文分词 |
第 4 章:隐马尔可夫模型与序列标注 |
第 5 章:感知机分类与序列标注 |
第 6 章:条件随机场与序列标注 |
第 7 章:词性标注 |
第 8 章:命名实体识别 |
第 9 章:信息抽取 |
第 10 章:文本聚类 |
第 11 章:文本分类 |
第 12 章:依存句法分析 |
第 13 章:深度学习与天然语言处理 |