r-net:machine reading comprehension with self-matching networks

文章目录 1.模型概述 2.passage和question编码层 3.Gated Attention-based RNN 4.Self-Matching Attention 5.output layer 6.源码和参数 参考链接 我觉得这篇文章的文笔真的有点不敢恭维,首先向量矩阵的维度不说清楚还能脑补,但是这边前后不同层之间用一样的变量名是什么意思啊(这么说出来会不会被MSRA鄙视,以后的简历都
相关文章
相关标签/搜索