NLP中的Attention总结

Attention是模拟人脑的注意力机制。人在看到一些东西,往往只关注重要的信息,而忽略其他信息。自然语言处理中的attention是对文本分配注意力权重,Attention的本质就是从关注全部变为关注重点。 1 Attention的原理 Attention的计算过程: query和key向量进行相似度计算,得到权重。 将得到的权值进行归一化,得到每个key的归一化权重。 根据权重,对value进
相关文章
相关标签/搜索