Controlling the Amount of Verbatim Copying in Abstractive Summarization

[arXiv] ------- [github] 文本摘要(Text Summarization)作为NLP中一个重要的子任务一直以来都受到了广泛的关注,虽然问题本身的定义很简单且直观,但目前已有的模型或方法得到的结果并不理想。直到最近各种预训练模型的出现在一定程度上提升了评估指标的数值,并且不管是针对于长文档还是普通的短文档,最终生成的摘要结果还是很好的。但是如何更好的利用BERT等已有的预训练
相关文章
相关标签/搜索