Attention模型:我的注意力跟你们人类不一样

星标/置顶小屋,带你解锁 最萌最前沿的NLP、搜索与推荐技术 文 | 小轶 背景 截至今日,Badanau Attention的原文citation已达1.34w之多。2020年几乎所有主流NLP任务都需要借助attetion来实现。在深度学习全民炼丹的时代,attention是为数不多具有较强可解释性的机制。 在attention提出后的最初几年,大家都因其效果显著便不假思索地用于了自己的任务;
相关文章
相关标签/搜索