LSTM梳理、理解和Keras实现

一、RNN LSTM适合时序序列、变长序列、尤其适合自然语言处理。从上图左边来看,RNN有两个输入,一个是当前 t 时刻的输入 xt ,另一个就是看似“本身的输入”。从上图右边来看,实际上就是左图的在一个时间序列上的展开,上一时刻的输出是这一时刻的输入,值得注意的是,实际上,右图上的所有神经元是同一个神经元,也就是左图,它们共享同样的权值,只不过在不同的时刻接受不同的输入,再把输出给下一时刻作为输
相关文章
相关标签/搜索