Open AI新一代语言模型GPT-2不需特定领域数据

Open AI最近发布新一代的大型语言模型GPT-2,该模型有15亿个参数,利用了800万页的网页数据做为训练数据,以预测全部输入文字的下一个字做为训练目标,而也由于数据集的多样性,让模型不须要针对特定的任务进行训练,以上述单纯的目标,就能涵盖了许多跨领域的任务,目前该模型可以在机器翻译、回答问题、阅读理解、总结段落等语言任务中生成与段落一致的文字内容,不过,为了预防恶意的使用行为,OpenAI并不会释出训练完的模型,只会发布技术论文和一个相较之下规模小不少的模型,提供研究人员作实验。学习

图片来源:http://www.cafes.org.tw/info.asp翻译

GPT-2模型在许多语言任务中,都达到了很好的表现,举例来讲,给定模型一段文字,模型就能产生接续段落的文字,而该模型的表现,也超越了用特定领域训练数据训练而成的模型,像是维基百科、新闻或是书籍等特定训练数据。此外,在像是问题回答、阅读理解、段落总结,以及翻译等语言任务中,GPT-2模型是从原始的文字数据开始学习,没有透过特定任务的数据来训练,而最终模型在这些任务上的表现也超越了现今效果最好的模型。Open AI表示,通用的语言模型将可以对社会产生很大的影响,也可以促成许多相关的应用,Open AI指望像GPT-2这样的模型可以被用来创造写做AI助理、更有能力的对话机器人、跨语言的非监督翻译模型、更好的语言理解系统等,可是同时,Open AI也担心这样的模型会被用于恶意的用途,像是制造误导新闻、伪造他人、在社群平台自动产生假内容,或是垃圾讯息等,所以只会释出小型的GPT-2模型,并不会释出训练数据集、程序代码和模型的权重。blog