RNN, LSTM简介

RNN 长期依赖的问题 LSTM RNN f(x)=12x2+xy+12y2 f ( x ) = 1 2 x 2 + x y + 1 2 y 2 人们的每次思考并不都是从零开始的。比如说你在阅读这篇文章时,你基于对前面的文字的理解来理解你目前阅读到的文字,而不是每读到一个文字时,都抛弃掉前面的思考,从头开始。你的记忆是有持久性的。 传统的神经网络并不能如此,这似乎是一个主要的缺点。例如,假设你在看
相关文章
相关标签/搜索