nltk

安装语料库 import nltk nltk.download() 分词 英文分词:nltk.word_tokenize() # 按照单词进行分词 中文分词:jieba.cut() 词性处理 stemming词干提取: 保留最长词根 nltk库中有多种函数实现: from nltk.stem.porter import PorterStemmer porter_stemmer = PorterSt
相关文章
相关标签/搜索