QANet: Combining Local Convolution With Global Self-Attention For Reading Comprehension

文章目录 1.概述 2.模型结构 2.1.Input embedding layer 2.2 Embedding Encoder Layer 2.3.Context-Query Attention Layer 2.4.Model Encoder Layer 2.5 Output layer 3.数据增强 4.源码及训练 参考文献 博主标记版paper下载地址:zsweet github 关于pap
相关文章
相关标签/搜索