NLP—RNN、Seq2Seq和Attention

文章目录 循环神经网络(Recurrent Neural Network,RNN) 最基本的单层神经网络 经典的RNN结构(N vs N) RNN变体(N vs 1) RNN变体(1 vs N) 序列到序列(Sequence to Sequence,Seq2Seq) 注意力机制(Attention) Attention 的优点 Attention 的缺点 Attention可视化 循环神经网络(R
相关文章
相关标签/搜索