Image Caption浅谈(2)

引言 上一次,提到seq2seq模型到nic模型,这种Encoder-Decoder结构中,Encode把所有的输入序列都编码成一个统一的语义特征 hn h n 再解码,因此, hn h n 中必须包含原始句子中的所有信息,它的长度就成了限制模型性能的瓶颈。对于短句来说还好,但当句子较长时,一个 hn h n 可能存不下那么多信息,就会造成翻译精度的下降。在这种情况下,论文《Neural mach
相关文章
相关标签/搜索