1.8 循环神经网络的梯度消失-深度学习第五课《序列模型》-Stanford吴恩达教授

循环神经网络的梯度消失 (Vanishing Gradient with RNNs) 你已经了解了RNN时如何工作的了,并且知道如何应用到具体问题上,比如命名实体识别,比如语言模型,你也看到了怎么把反向传播用于RNN。其实,基本的RNN算法还有一个很大的问题,就是梯度消失的问题。这节课我们会讨论,在下几节课我们会讨论一些方法用来解决这个问题。 你已经知道了RNN的样子,现在我们举个语言模型的例子,
相关文章
相关标签/搜索