【论文笔记】Decomposable attention

是这个Paper的一些笔记 Parikh A P, Täckström O, Das D, et al. A decomposable attention model for natural language inference[J]. arXiv preprint arXiv:1606.01933, 2016. 这是一个比较简单易行的方法:两个句子之间怎么做attention 下面这个博客有一些
相关文章
相关标签/搜索