常识知识确能被捕获,西湖大学博士探究BERT如何做常识问答

点击上方“AI遇见机器学习”,选择“星标”公众号 重磅干货,第一时间送达 来自:机器之心 BERT 是通过常识知识来解决常识任务的吗? 预训练上下文化语言模型(例如 BERT)的成功激发了研究人员探索此类模型中的语言知识,以解释下游任务的巨大改进。尽管先前的研究工作展示了 BERT 中的句法、语义和词义知识,但在研究 BERT 如何解决常识问答(CommonsenseQA)任务方面做的工作还很少。
相关文章
相关标签/搜索