超越BERT、GPT------屏蔽序列到序列预训练MASS(原理篇)

文章目录 一、前言 二、新的与训练方法——MASS 三、统一的与训练框架 四、序列到序列天然语言生成任务实验 预训练流程 无监督机器翻译 低资源机器翻译 文本摘要生成 对话生成 微软研究院 AI 头条,转:https://mp.weixin.qq.com/s/0bU6_nsVzi6s6VyO8Y6s2A 论文地址:https://arxiv.org/pdf/1905.02450.pdfhtml 一
相关文章
相关标签/搜索