论文阅读:Text-to-Text Pre-Training for Data-to-Text Tasks

文章简介: 这篇文章内容很简单,作者对最近发布的 【1】T5模型应用data-to-text领域的数据进行微调,发现在WebNLG,MultiWoz,ToTTo三个数据集上都优于目前的性能;作者提出可能这种只采用预训练模型,不需要进行现在文本生成领域流行的规划生成【2】【3】,词约束和复制机制方法,同样也能取得比较好的文本生成效果; 主要内容: 预训练: 实验T5模型:Small (60 mill
相关文章
相关标签/搜索