文献阅读笔记-MASS: Masked Sequence to Sequence Pre-training for Language Generation

背景 题目:MASS: Masked Sequence to Sequence Pre-training for Language Generation 机构:微软亚洲研究院 做者:Kaitao Song、Xu Tan 发布地方:ICML 2019 面向任务:天然语言理解任务(NLU)的学习表示 论文地址:https://arxiv.org/pdf/1905.02450.pdf 最新成果:WMT1
相关文章
相关标签/搜索