使用维基百科训练简体中文词向量

使用维基百科训练简体中文词向量 php

    最近须要训练简体中文的词向量,而中文大规模语料获取并无像英文那样方便。搜狗语料库(http://www.sogou.com/labs/resource/list_yuliao.php)是可以免费获取的比较大的中文新闻语料库。可是最新的也就是更新到2012年的语料,后续并无放出更新的语料。除了搜狗语料,要获取其余领域相关的中文语料,可能就须要本身动手写个爬虫去相关网站上爬取。后面经过检索,发现你们经过免费的中文维基百科来进行词向量的训练,因而我也下载处理了最新的维基语料,使用word2vec工具进行了中文词向量的训练。git

1 下载中文维基百科。github

wiki语料库下载网址:工具

https://dumps.wikimedia.org/测试

最近的中文wiki语料:网站

https://dumps.wikimedia.org/zhwiki/latest/spa

其中zhwiki-latest-pages-articles.xml.bz2文件包含了标题、正文部分。压缩包大概是1.3G,解压后大概是5.7G。相比英文wiki中文的仍是小了很多。命令行

2 抽取wiki正文内容xml

下载下来的wikiXML格式,须要提取其正文内容。不过维基百科的文档解析有很多的成熟工具(例如gensimwikipedia extractor等),我直接使用开源工具wikipedia extractor完成正文的提取。blog

Wikipedia extractor的网址为: http://medialab.di.unipi.it/wiki/Wikipedia_Extractor

Wikipedia Extractor 是一个简单方便的Python脚本,下载好WikiExtractor.py后直接使用下面的命令运行便可。

WikiExtractor.py -cb 1200M -o extracted zhwiki-latest-pages-articles.xml.bz2

-cb 1200M表示以 1200M 为单位切分文件,-o 后面接出入文件,最后是输入文件。

3 简繁转换

中文wiki内容中大多数是繁体,这须要进行简繁转换。我使用了厦门大学NLP实验室开发的简繁转换工具,该工具使用简单方便效果也很不错。

  下载网址为:http://jf.cloudtranslation.cc/

下载单机版便可,在windos命令行窗口下使用下面命令行运行:

  jf -fj file1.txt file2.txt -lm lm_s2t.txt

其中file1.txt为繁体原文文件,file2.txt为输出转换结果的目标文件名,lm_s2t.txt为语言模型文件。

4 处理空括号

因为 Wikipedia Extractor 抽取正文时,会将有特殊标记的外文直接剔除,最后造成一些空括号,本身去掉了这些空括号。

5 训练词向量

将前面获得的中文语料使用jieba分词工具(https://github.com/fxsjy/jieba)进行了分词,而后使用word2vec工具进行了训练,使用参数以下:

-cbow 0 -size 50 -window 10 -negative 5 -hs 1 -sample 1e-3 -threads 24 -binary 0 -iter 10

训练获得简体中文词向量后,测试了与"蛋白质""艾滋病""青霉素" 类似的top10,结果以下:

 

 

最后给你们共享一下处理好的资源。

http://pan.baidu.com/s/1dFeNNK9

其中包括,

处理好的简体中文文本(未分词):zhwiki_2017_03.clean

训练好的简体中文词向量:zhwiki_2017_03.sg_50d.word2vec

相关文章
相关标签/搜索