自然语言处理 | (24) RNN、RNN变体、Seq2Seq、Attention机制简介

原文地址 本篇博客转载自知乎,原文见上面的链接。本文主要利用图片的形式简单的介绍了经典RNN、RNN几个重要变体,以及Seq2Seq模型、Attention机制。旨在让大家有个初步的印象,之后的几篇博客还会更详细的展开。 目录 一、单层网络 二、经典的RNN结构(N vs. N) 三、N vs. 1 四、1 vs. N 五、 N vs. M 六、Attention机制 七、总结 一、单层网络 在R
相关文章
相关标签/搜索