Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation

预备知识:     RNN:循环神经网络     处理序列化数据,一般用于多输入多输出,数据之间存在关联性     U:输入层到隐藏层的权重矩阵     V:隐藏层到输出层的权重矩阵     W:隐藏层S不仅仅取决于当前这次的的输入x,还取决于上一次隐藏层的值St-1,权重矩阵W就是隐藏层上一次的值作为这一次输入的权重。 用公式表示如下:     Ot=g(V*St)     St=f(U*Xt+
相关文章
相关标签/搜索