动手做个DialoGPT:生成式多轮对话模型

文 | 苏剑林 编 | 兔子酱 前段时间刷Arixv的时候,发现清华大学开源了一个大规模的中文闲聊语料库LCCC,从开源的文件上来看,这可能是目前开源的数量最大、质量最好的闲聊语料库了,而且还包含了部分多轮对话聊天,总的来说可玩性还是蛮强的。笔者也被它吸引到了,尝试着用它来训练了一个闲聊对话模型,结果看上去还是不错的,在此分享一下自己的经验。 论文名称: 《A Large-Scale Chines
相关文章
相关标签/搜索