注意力机制并不是关注输入的位置

问题:注意力机制如果关注的输入的位置,那么本来很多模型是就能关注位置信息的,又怎么需要注意力机制呢? 比如说:比如说输入向量每个位置赋予不同的权重,自然内容顺序不同,自然就会导致结果不同,位置的作用就显现了出来; 注意力机制本质上关注的是内容,比如说阅读一个句子,它的关键词不是由位置决定的,而是由它的内容决定的;关键词可以是任何位置,所以跟位置无关;本质是动态给予每个词一个权重,进行聚焦,靠的是内
相关文章
相关标签/搜索