Attention is all you need

最近想了一下,写这种技术博客,没有一定固定的格式和套路,总会觉得很乱,而且容易忘记。 所以继上周说了尽量做demo,以后我尽量会按照这个思路写技术性的博客。 是什么 细节部分 怎么用 话不多说,开始介绍Attention机制。 Attention的由来 由Google Mind发表的《Recurrent Models of Visual Attention》,将Attention开始在大范围使用(
相关文章
相关标签/搜索