r-net:machine reading comprehension with self-matching networks

文章目录 1.模型概述 2.passage和question编码层 3.Gated Attention-based RNN 4.Self-Matching Attention 5.output layer 6.源码和参数 参考连接 我以为这篇文章的文笔真的有点不敢恭维,首先向量矩阵的维度不说清楚还能脑补,可是这边先后不一样层之间用同样的变量名是什么意思啊(这么说出来会不会被MSRA鄙视,之后的简历
相关文章
相关标签/搜索