【ACL20】让笨重的BERT问答匹配模型变快!

作者:曹庆庆 Stony Brook University 在读PhD 关注Efficient NLP、QA方向,详见awk.ai 来自:夕小瑶的卖萌屋 背景 BERT、XLNet、RoBERTa等基于Transformer[1]的预训练模型推出后,自然语言理解任务都获得了大幅提升。问答任务(Question Answering,QA)[2]也同样取得了很大的进步。 用BERT类模型来做问答或阅读
相关文章
相关标签/搜索