ICLR 2020| VL-BERT:预训练视觉-语言模型

  今天介绍中国科学技术大学和微软亚洲研究院朱西洲老师团队在ICLR2020的论文,该研究提出了一种新的图形神经网络的几何聚合方式,其核心思想是:在bert的基础上为视觉-语言相关任务做预训练。 VL-BERT: 可预训练的通用视觉-语言表示 作者提出了一种新型可训练通用预训练表示,用于视觉-语言任务,称为视觉-语言BERT(简称VL-BERT)。VL-BERT采用简单且功能强大的Transfor
相关文章
相关标签/搜索