深度学习入门(二)

1. RNN之所以叫做循环神经网络是因为一个序列当前的输出与前面的输出也有关。 2. LSTM可以在更长的时间范围来分析时序数据。 3. LSTM关键在于神经细胞状态,LSTM通过门结构来去除或增加信息到细胞状态的能力(Sigmoid)。 4. 双向循环网络的基本思想是,提出每一个训练序列向前和向后分别是两个循环神经网络,而且这两个都连接着一个输出层。这个结构提供给输出层输入序列中每一个点的完整的
相关文章
相关标签/搜索