李宏毅——transformer

李宏毅——transformer 导读 self-attention multi-head self-attention 顺序问题 seq2seq with attention transformer 网络架构 attention visualization 例子 导读 什么是transformer: 对于序列,常用的是RNN RNN的问题,不容易并行处理。 所以有人提出了,用CNN来替代RNN。
相关文章
相关标签/搜索