"A Diversity-Promoting Objective Function for Neural Conversation Models"阅读笔记

由于最近在作的chatbot实验效果不太好,老是会出现一些没有养分的回复,如我不知道等等。因此查了一些资料,发现李纪为大神的篇文章是提供了处理这个问题的方法,因此借鉴了一下,顺便写一下博客记录。web 文章主要的贡献是使用了最大互信息MMI代替经常使用的最大后验几率MLE等做为目标函数。MLE这个目标函数最经常使用在机器翻译任务上,最大的优点在于能够产生最天然的语言,可是多样性很差。对话任务和翻译
相关文章
相关标签/搜索