NLP ——Skip-gram 和 CBOW

NLP ——Skip-gram 和 CBOW one-hot 隐藏层没有激活函数 词向量的维度一般情况下要远远小于词语总数的大小(降维操作) 用技巧来加速训练: Hierarchical softmax 本质是把 N 分类问题变成 log(N)次二分类 negative sampling 本质是预测总体类别的一个子集 其实在真正应用的时候,只需要调用 Gensim (一个 Python 第三方库)
相关文章
相关标签/搜索