论文阅读:Generating Abstractive Summaries with Finetuned Language Models

文章简介: 作者认为神经摘要模型可以利用预先训练的语言表示来生成更抽象的文本 主要方法: 很多摘要生成是在源文本复制词,而不是去理解 解释它,而作者解释作者使用的数据集TK;DR数据集,的摘要是人工撰写,不同于一些用复制+少量人工撰写的新闻数据集; 模型对比: 其中Transformer+Pretrain,是采用的【1】 pseudo self attention method:S是encoder
相关文章
相关标签/搜索