论文笔记:Self-critical Sequence Training for Image Captioning

论文连接:Self-critical Sequence Training for Image Captioningnode 引言 如今image caption主要存在的问题有:web exposure bias:模型训练的时候用的是叫“Teacher-Forcing”的方式:输入RNN的上一时刻的单词是来自训练集的ground-truth单词。而在测试的时候依赖的是本身生成的单词,一旦生成得很差
相关文章
相关标签/搜索