神经网络语言模型中,词向量为什么可以随着模型的迭代而改变?

在神经网络语言模型中,通常我们认为词向量是模型的输入。 对此不太熟悉的朋友可以参考博客:自然语言处理NLP(3)——神经网络语言模型、词向量 神经网络语言模型的架构是这个样子的: 然而,在模型训练的过程中,输入层的词向量可以随着模型的迭代而改变,就像调整上图中的权重: W , U , H W,U,H W,U,H一样。 可能很多人有同样的疑问:词向量作为模型的输入,怎么能改变呢? 朋友们可以先仔细思
相关文章
相关标签/搜索