IJCAI2020论文:上下文在神经机器翻译中的充分利用

来自:南大NLP 01 — 研究动机 目前,主流的神经机器翻译模型(Neural Machine Translation, NMT)通常是句子级别的,往往以单个句子为单位进行翻译。但是在实际情况下,我们往往希望机器翻译能连贯地翻译整个篇章文本,而句子级别的模型显然没办法去考虑篇章中句子之间的依赖关系和贯穿全局的上下文信息。例如,一篇文章的主题往往不能被句子级别的模型所建模,从而导致不连贯的篇章翻译
相关文章
相关标签/搜索