语料,即语言材料。语料是语言学研究的内容。语料是构成语料库的基本单元。因此,人们简单地用文本做为替代,并把文本中的上下文关系做为现实世界中语言的上下文关系的替代品。咱们把一个文本集合称为语料库(Corpus),当有几个这样的文本集合的时候,咱们称之为语料库集合(Corpora)。(定义来源:百度百科)按语料来源,咱们将语料分为如下两种:正则表达式
1.已有语料算法
不少业务部门、公司等组织随着业务发展都会积累有大量的纸质或者电子文本资料。那么,对于这些资料,在容许的条件下咱们稍加整合,把纸质的文本所有电子化就能够做为咱们的语料库。机器学习
2.网上下载、抓取语料学习
若是如今我的手里没有数据怎么办呢?这个时候,咱们能够选择获取国内外标准开放数据集,好比国内的中文汉语有搜狗语料、人民日报语料。国外的由于大都是英文或者外文,这里暂时用不到。也能够选择经过爬虫本身去抓取一些数据,而后来进行后续内容。ip
这里重点介绍一下语料的预处理,在一个完整的中文天然语言处理工程应用中,语料预处理大概会占到整个50%-70%的工做量,因此开发人员大部分时间就在进行语料预处理。下面经过数据洗清、分词、词性标注、去停用词四个大的方面来完成语料的预处理工做。开发
1.语料清洗字符串
数据清洗,顾名思义就是在语料中找到咱们感兴趣的东西,把不感兴趣的、视为噪音的内容清洗删除,包括对于原始文本提取标题、摘要、正文等信息,对于爬取的网页内容,去除广告、标签、HTML、JS 等代码和注释等。常见的数据清洗方式有:人工去重、对齐、删除和标注等,或者规则提取内容、正则表达式匹配、根据词性和命名实体提取、编写脚本或者代码批处理等。深度学习
2.分词数学
中文语料数据为一批短文本或者长文本,好比:句子,文章摘要,段落或者整篇文章组成的一个集合。通常句子、段落之间的字、词语是连续的,有必定含义。而进行文本挖掘分析时,咱们但愿文本处理的最小单位粒度是词或者词语,因此这个时候就须要分词来将文本所有进行分词。数据挖掘
常见的分词算法有:基于字符串匹配的分词方法、基于理解的分词方法、基于统计的分词方法和基于规则的分词方法,每种方法下面对应许多具体的算法。
当前中文分词算法的主要难点有歧义识别和新词识别,好比:“羽毛球拍卖完了”,这个能够切分红“羽毛 球拍 卖 完 了”,也可切分红“羽毛球 拍卖 完 了”,若是不依赖上下文其余的句子,恐怕很难知道如何去理解。
3.词性标注
词性标注,就是给每一个词或者词语打词类标签,如形容词、动词、名词等。这样作可让文本在后面的处理中融入更多有用的语言信息。词性标注是一个经典的序列标注问题,不过对于有些中文天然语言处理来讲,词性标注不是非必需的。好比,常见的文本分类就不用关心词性问题,可是相似情感分析、知识推理倒是须要的,下图是常见的中文词性整理。
常见的词性标注方法能够分为基于规则和基于统计的方法。其中基于统计的方法,如基于最大熵的词性标注、基于统计最大几率输出词性和基于 HMM 的词性标注。
4.去停用词
停用词通常指对文本特征没有任何贡献做用的字词,好比标点符号、语气、人称等一些词。因此在通常性的文本处理中,分词以后,接下来一步就是去停用词。可是对于中文来讲,去停用词操做不是一成不变的,停用词词典是根据具体场景来决定的,好比在情感分析中,语气词、感叹号是应该保留的,由于他们对表示语气程度、感情色彩有必定的贡献和意义。
作完语料预处理以后,接下来须要考虑如何把分词以后的字和词语表示成计算机可以计算的类型。显然,若是要计算咱们至少须要把中文分词的字符串转换成数字,确切的说应该是数学中的向量。有两种经常使用的表示模型分别是词袋模型和词向量。
词袋模型(Bag of Word, BOW),即不考虑词语本来在句子中的顺序,直接将每个词语或者符号统一放置在一个集合(如 list),而后按照计数的方式对出现的次数进行统计。统计词频这只是最基本的方式,TF-IDF 是词袋模型的一个经典用法。
词向量是将字、词语转换成向量矩阵的计算模型。目前为止最经常使用的词表示方法是 One-hot,这种方法把每一个词表示为一个很长的向量。这个向量的维度是词表大小,其中绝大多数元素为 0,只有一个维度的值为 1,这个维度就表明了当前的词。还有 Google 团队的 Word2Vec,其主要包含两个模型:跳字模型(Skip-Gram)和连续词袋模型(Continuous Bag of Words,简称 CBOW),以及两种高效训练的方法:负采样(Negative Sampling)和层序 Softmax(Hierarchical Softmax)。值得一提的是,Word2Vec 词向量能够较好地表达不一样词之间的类似和类比关系。除此以外,还有一些词向量的表示方式,如 Doc2Vec、WordRank 和 FastText 等。
同数据挖掘同样,在文本挖掘相关问题中,特征工程也是必不可少的。在一个实际问题中,构造好的特征向量,是要选择合适的、表达能力强的特征。文本特征通常都是词语,具备语义信息,使用特征选择可以找出一个特征子集,其仍然能够保留语义信息;但经过特征提取找到的特征子空间,将会丢失部分语义信息。因此特征选择是一个颇有挑战的过程,更多的依赖于经验和专业知识,而且有不少现成的算法来进行特征的选择。目前,常见的特征选择方法主要有 DF、 MI、 IG、 CHI、WLLR、WFO 六种。
在特征向量选择好以后,接下来要作的事情固然就是训练模型,对于不一样的应用需求,咱们使用不一样的模型,传统的有监督和无监督等机器学习模型, 如 KNN、SVM、Naive Bayes、决策树、GBDT、K-means 等模型;深度学习模型好比 CNN、RNN、LSTM、 Seq2Seq、FastText、TextCNN 等。这些模型在后续的分类、聚类、神经序列、情感分析等示例中都会用到,这里再也不赘述。