【论文笔记】QANET:Combining Local Convolution With Global Self-attention for Reading Comprehension

目录   1. 简要介绍 2. 模型 3. data augmentation by backtranslation 4. 实验 ​​​​​​​ 1. 简要介绍 模型创新点: (一)移除了RNN,核心就是卷积 + self-attention。这样使得训练更快,相应地模型能使用更多的训练数据。Convolution capture the local structure of context(lo
相关文章
相关标签/搜索