前面已经详细讲了LSTM神经网络(文末有连接回去),接着往下讲讲LSTM的一个很流行的变体。web
GRU即Gated Recurrent Unit。前面说到为了克服RNN没法很好处理远距离依赖而提出了LSTM,而GRU则是LSTM的一个变体,固然LSTM还有有不少其余的变体。GRU保持了LSTM的效果同时又使结构更加简单,因此它也很是流行。网络
回顾一下LSTM的模型,LSTM的重复网络模块的结构很复杂,它实现了三个门计算,即遗忘门、输入门和输出门。并发
而GRU模型以下,它只有两个门了,分别为更新门和重置门,即图中的
根据前面GRU模型图来一步步看他是怎么向前传播的,根据图不可贵到如下式子:
分布式
其中[]表示两个向量相链接,*表示矩阵元素相乘。svg
从前面的公式中能够看到须要学习的参数就是
输出层的输入
设某时刻的损失函数为
与前面LSTM网络相似,最终能够推出
如下是广告和相关阅读
========广告时间========
公众号的菜单已分为“分布式”、“机器学习”、“深度学习”、“NLP”、“Java深度”、“Java并发核心”、“JDK源码”、“Tomcat内核”等,可能有一款适合你的胃口。
鄙人的新书《Tomcat内核设计剖析》已经在京东销售了,有须要的朋友能够购买。感谢各位朋友。
=========================
相关阅读:
欢迎关注: