最近一段时间Python已经成为数据科学行业中大火的编程语言,今天技术学派收集了一些较为高效的语言处理Python库。下面分享给你们。python
1.NLTK程序员
NLTK是构建Python程序以处理人类语言数据的领先平台。它提供了易于使用的界面,以及用于分类、标记化、词干化、标记、分析和语义推理的一套文本处理库。用于工业强度NLP库的包装器。算法
在这里仍是要推荐下我本身建的Python开发学习群:483546416,群里都是学Python开发的,若是你正在学习Python ,小编欢迎你加入,你们都是软件开发党,不按期分享干货(只有Python软件开发相关的),包括我本身整理的一份2018最新的Python进阶资料和高级开发教程,欢迎进阶中和进想深刻Python的小伙伴编程
2.Pattern微信
Pattern是Python编程语言的Web挖掘模块。它多有用于数据挖掘、天然语言处理、机器学习网络分析和网络
3.Jieba机器学习
“结巴”中文分词:作最好的 Python 中文分词组件。精确模式,试图将句子最精确地切开,适合文本分析;全模式,把句子中全部的能够成词的词语都扫描出来, 速度很是快,可是不能解决歧义;搜索引擎模式,在精确模式的基础上,对长词再次切分,提升召回率,适合用于搜索引擎分词。编程语言
4.TextBlob工具
TextBlob是一个用于处理文本数据的Python库。它提供了一个简单的API用于常见的天然语言处理(NLP)任务,如词性标注,名词短语提取,情感分析,分类,翻译等。学习
5.SnowNLP
SnowNLP是一个python写的类库,能够方便的处理中文文本内容,是受到了TextBlob的启发而写的,因为如今大部分的天然语言处理库基本都是针对英文的,因而写了一个方便处理中文的类库,而且和TextBlob不一样的是,这里没有用NLTK,全部的算法都是本身实现的,而且自带了一些训练好的字典。注意本程序都是处理的unicode编码,因此使用时请自行decode成unicode。
6.TextGrocery
TextGrocery是一个基于LibLinear和结巴分词的短文本分类工具,特色是高效易用,同时支持中文和英文语料。
分享 IT 技术和行业经验,请关注微信公众号:程序员大牛,天天分享干货!