python wiki中文语料分词

上篇将wiki中文语料已经下载下来(wiki中文文本语料下载并处理 ubuntu + python2.7),而且转为了txt格式,本篇对txt文件进行分词,分词后才能使用word2vector训练词向量 分词python程序为(使用jieba分词)python # -*- coding: utf-8 -*- #!/usr/bin/env python import sys reload(sys)
相关文章
相关标签/搜索