NLP ——Hierarchical Softmax

NLP ——Hierarchical Softmax word2vec为什么 不用现成的DNN模型,要继续优化出新方法呢? 问题:从隐藏层到输出的softmax层的计算量很大,因为要计算所有词的softmax概率,再去找概率最大的值。 word2vec对这个模型做了改进: 首先,对于从输入层到隐藏层的映射,没有采取神经网络的线性变换加激活函数的方法,而是采用简单的对所有输入词向量求和并取平均的方法
相关文章
相关标签/搜索