个人总结:从RNN到LSTM GRU 注意力机制

前言 RNN擅长解决的问题是连续的序列,且序列的长短不一,比如基于时间的序列:一段段连续的语音等。这些序列比较长,且长度不一,比较难直接拆分成一个个独立的样本通过DNN/CNN进行训练。 而RNN由于其独有的结构和优势,能够处理DNN/CNN所不能及的问题。 RNN的5种不同架构 one2one: 一个输入对应一个输出。 one2many: 一个输入对应多个输出,这个架构多用于图片的对象识别,即输
相关文章
相关标签/搜索