论文阅读:《Pretraining-Based Natural Language Generation for Text Summarization》

论文地址:https://arxiv.org/abs/1902.09243 简介 该论文自称是首个将BERT应用在文本生成任务上的文章,论文讲解的非常的清晰详细,模型的框架依然使用经典的encoder-decoder形式,encoder层使用了BERT,生成句子向量,decoder层思想比较新颖,分为两步,第一步先使用transformer生成一个基础文摘,第二步将这个句子的每个词都做一次mask
相关文章
相关标签/搜索