万能的Seq2Seq:基于Seq2Seq的阅读理解问答

作者丨苏剑林 单位丨追一科技 研究方向丨NLP,神经网络 个人主页丨kexue.fm 今天给 bert4keras [1] 新增加了一个例子:阅读理解式问答(task_reading_comprehension.py [2]),语料跟之前一样,都是用 WebQA 和 SogouQA [3],最终的得分在 0.75 左右(单模型,没精调)。 方法简述 由于这次主要目的是给 bert4keras 增加
相关文章
相关标签/搜索