敲代码、做诗、写论文无所不能!史上最大AI模型GPT-3强势霸榜Github

 

最近,GPT-3火了!相信你已经在网上看到各类有关GPT-3的演示。这个由OpenAI建立的大型机器学习模型,它不只能够本身写论文,还会写诗歌,就连你写的代码都能帮你写了。git

 

下面仍是先让你看看GPT-3的威力吧,首先来看看GPT3在问答任务上的表现:程序员

 

不管你的问题是天马行空的脑筋急转弯,仍是有逻辑性极强的数学问题,它都能对答如流。github

开发者Sharif Shameem用GPT-3作了一个生成器,你只要输入你所需的布局,它就能为你生成JSX代码,如视频所示数据库

还有人在 Google 表格里开发了一个新的 GPT3 函数,除了简单的数学运算以外,它还能够自动查找美国各州的人口以及建立年份:编程

除此以外,它还能查到Twitter帐号:网络

遗憾的是,若是你想试用GPT-3,你得先拿到体验资格才行,可是此模型建立的应用程序彷佛有无限可能,经过它你可使用纯英语查询SQL数据库,自动注释代码,自动生成代码,编写热门文章标题,甚至帮助猿妹我写出一篇爆文。架构

 

 

GPT-3是什么?

GPT-3是一种神经网络驱动的语言模型。与大多数语言模型同样,GPT-3在未标记的文本数据集上进行了大量的训练(训练数据包括Common Crawl和Wikipedia),从文本中随机删除单词或短语,而且模型必须学会仅使用周围的单词做为上下文来填充单词或短语。这是一个简单的培训任务,能够产生功能强大且可推广的模型。机器学习

GPT-3模型架构自己就是一个基于单向transformer语言模型。这种架构在2-3年前开始流行,流行的NLP模型BERT和GPT-3的前身GPT-2都是基于transformer构建。从架构的角度来看,GPT-3实际上并非很新颖!编程语言

它之因此会这么火,是由于GPT-3的模型尺寸增大到了1750亿,而且使用45TB数据进行训练,是有史以来建立的最大语言模型。源于它的参数模型巨大,所以能够完成许多其余模型没法完成的事情,就像前面所说的,你可让它成为一名翻译家、做家、诗人、程序员等。函数

 

若是你对GPT-3的模型参数1750亿感到有些抽象,那么,我举个例子,你应该就懂了:

  • BERT模型有3亿参数
  • GPT-3模型的前身GPT-2有15亿个参数
  • 英伟达的Megatron-BERT有80亿参数
  • 微软Turing NLP,有170亿参数

 

就连排名第二的微软Turing NLP的数据参数和GPT-3都不是一个量级的。

 

 

值得一提的是,此次的GPT-3论文做者足足有31位,论文体量更是高达72页,网友都惊呼,如今PTM的工做是要开始pk论文页数了吗?

 

 

和往常同样,GPT-3当即放出了GitHub项目页面,你能够在上面找到各类各样有趣的demo,最后附上Github地址:https://github.com/openai/gpt-3。

 

 

【编辑推荐】

  1. 科技公司在大裁人后还在招聘吗?哪些人最受青睐?
  2. 木兰编程语言重现:完善函数功能,经常使用字拆分数据处理实例
  3. 10年卖下28家AI公司 苹果的AI吸星大法!
  4. Github 将你的代码打包送到了北极封存千年,网友:这下糗大了,还有 bug 呢!!
  5. 国科大本科生9个月设计出处理器芯片 可运行Linux系统