毕业设计——将获得的中文数据集进行jieba分词

如题,可供选择的分词工具有很多种,下面我将使用jieba分词进行中文分词。 待分词的文件:  话不多说,上代码: import jieba.analyse with open('F:\csdn\csdn.txt',encoding='gbk') as f: //此处可以改为自己需要分词的文件,更改地址即可 document = f.read() document_cut =
相关文章
相关标签/搜索