120G+训练好的word2vec模型(中文词向量)

从网上了解到,很多人缺少大语料训练的word2vec模型,在此分享下使用120G+语料训练好的word2vec模型。 训练语料: 百度百科800w+条,20G+ 搜狐新闻400w+条,12G+(数据下载链接见其它博文) 小说:90G左右 模型参数: window=5 min_count=5 size=64 ps:其它参数见gensim库,执行代码为:Word2Vec(sentence, windo
相关文章
相关标签/搜索