利用结巴和WordCloud进行中文分词及图云绘制入门

摘要:利用结巴分词对文本进行分词,并获取高频的关键词,之后对关键词绘制图云。 语言:python 库:jieba  wordcloud python下中文的分词好多人推荐了“结巴”中文分词 [https://github.com/fxsjy/jieba],本文记录了使用该插件进行分词及后续操作的简单流程。 仿照官方demo,直接对一段话进行分词: 这里我们注意到,把标点符号也算作一个词了,如果不想
相关文章
相关标签/搜索