深度学习--GRU(门控循环单元)原理详解

上一篇中已经总结了RNN的原理,传送门:https://blog.csdn.net/wenqiwenqi123/article/details/80704528 本文讲解一下GRU的原理,GRU对于RNN中的梯度消失有很大帮助。GRU即Gated Recurrent Unit。为了克服RNN无法很好处理远距离依赖而提出了LSTM,而GRU则是LSTM的一个变体,当然LSTM还有有很多其他的变体。G
相关文章
相关标签/搜索