“非自回归”也不差:基于MLM的阅读理解问答

做者丨苏剑林git 单位丨追一科技github 研究方向丨NLP,神经网络网络 我的主页丨kexue.fm人工智能 前段时间写了万能的Seq2Seq:基于Seq2Seq的阅读理解问答,探索了以最通用的 Seq2Seq 的方式来作阅读理解式问答,而且取得至关不错的成绩(单模型 0.77,超过参加比赛时精调的最佳模型)。这篇文章咱们继续作这个任务,不过换一个思路,直接基于 MLM 模型来作,最终成绩基
相关文章
相关标签/搜索