Semantically Conditioned LSTM-based Natural Language Generation for Spoken Dialogue Systems(阅读理解)

大多数的NLG(Natural language generation)系统都使用规则和启发式,并且倾向于在没有人类语言的自然变化的情况下产生单一风格,本文提出了一种基于语义控制的长短时记忆网络(LSTM)的统计NLG。它可以通过使用简单的交叉熵训练准则,在没有任何启发式的情况下,通过联合优化其句子规划和表面实现组件来学习未对齐的数据,并通过随机抽取网络输出来获得高质量的语言变异。 本文的突出贡献
相关文章
相关标签/搜索