jiebaR中文分词,并作词云(R语言)

使用结巴中文分词(jiebaR)对以前爬取的新浪新闻 文本进行分词,统计词频以后,使用包wordcloud画词云。python 一、读入数据 如下数据是在这里爬取的,这里只对社会新闻类进行测试,文件仍是比较大的。分词完有一千多万个词,处理完后有将近30万。web library(jiebaR) library(wordcloud) #读入数据分隔符是‘\n’,字符编码是‘UTF-8’,what=
相关文章
相关标签/搜索