Seq2Seq中的Attention和self-attention

Seq2Seq中的Attention和self-attention 一、Seq2Seq Model 首先介绍Seq2Seq模型,进而引入Attention机制。Seq2Seq模型的经典应用是语言模型,类似于语言翻译的例子(英译汉),Seq2Seq的目的就是将英文句子(输入Sequence),转换为汉语句子(输出Sequence),这里的Sequence是由字(单词)的序列。 这种Seq2Seq通常
相关文章
相关标签/搜索