摘要: 最好的论文是能够直接走出实验室!NLP年度最佳应用论文大集锦!
语言理解对计算机来讲是一个巨大的挑战。幼儿能够理解的微妙的细微差异仍然会使最强大的机器混淆。尽管深度学习等技术能够检测和复制复杂的语言模式,但机器学习模型仍然缺少对咱们的语言真正含义的基本概念性理解。git
但在2018年确实产生了许多具备里程碑意义的研究突破,这些突破推进了天然语言处理、理解和生成领域的发展。github
咱们总结了14篇研究论文,涵盖了天然语言处理(NLP)的若干进展,包括高性能的迁移学习技术,更复杂的语言模型以及更新的内容理解方法。NLP,NLU和NLG中有数百篇论文,因为NLP对应用和企业AI的重要性和广泛性,因此咱们从数百篇论文中寻找对NLP影响最大的论文。web
2018年最重要的天然语言处理(NLP)研究论文vim
论文摘要:网络
咱们引入了一种名为BERT的新语言表示模型,它是Transformer的双向编码器表示。与最近的语言表示模型不一样,BERT旨在经过联合调节全部层中的左右上下文来预训练深度双向表示。所以,预训练的BERT表示能够经过一个额外的输出层进行微调,以建立适用于普遍任务的最早进模型,例如问答和语言推理,而无需实质性的具体的架构修改。架构
BERT在概念上简单且经验丰富,它得到了11项天然语言处理任务的最新成果,包括将GLUE基准推至80.4%(提高了7.6%)、MultiNLI准确度达到86.7%(提高了5.6%)、SQuAD v1.1问题回答测试F1到93.2%(提高了1.5%)。机器学习
总结函数
谷歌AI团队提出了天然语言处理(NLP)的新前沿模型-BERT,它的设计容许模型从每一个词的左侧和右侧考虑上下文。BERT在11个NLP任务上得到了新的最早进的结果,包括问题回答,命名实体识别和与通常语言理解相关的其余任务。性能
论文的核心思想是什么?学习
什么是关键成就?
AI社区对其见解?
将来的研究领域是什么?
最可能的商业应用是什么?
BERT能够帮助企业解决各类NLP问题,包括:
你在哪里能够代码?
论文摘要
学习注意力函数须要很是大规模的数据,不过有不少天然语言处理任务都是对人类行为的模拟,在这篇论文中做者们就代表人类的注意力确实能够为 NLP 中的许多注意力函数提供一个不错的概括偏倚。具体来讲,做者们根据人类阅读语料时的眼睛动做追踪数据估计出了「人类注意力」,而后用它对 RNN 网络中的注意力函数进行正则化。做者们的实验代表,人类注意力在大量不一样的任务中都带来了显著的表现提高,包括情感分析、语法错误检测以及暴力语言检测。
总结
Maria Barrett和她的同事建议使用从眼动(eye-tracking)追踪语料库中获取的人类注意力来规范循环神经网络(RNN)中的注意力。经过利用公开可用的眼动追踪语料库,即经过眼睛跟踪测量(例如注视持续时间)加强的文本,它们可以在NLP任务中显着提升RNN的准确性,包括情绪分析、滥用语言检测和语法错误检测。
论文的核心思想是什么?
什么是关键成就?
§ 情绪分析,§ 检测语言检测,
§ 语法错误检测。
AI社区对其见解?
将来的研究领域是什么?
什么是可能的商业应用?
§ 增强客户评论的自动分析;§ 过滤掉滥用的评论,回复。
你在哪里能够获得实现代码?
论文摘要
机器翻译系统在某些语言上实现了接近人类的性能,但其有效性强烈依赖于大量并行句子的可用性,这阻碍了它们适用于大多数语言。本文研究了如何在只能访问每种语言的大型单语语料库时学习翻译。咱们提出了两种模型变体,一种神经模型,另外一种基于短语的模型。两个版本都利用参数的初始化、语言模型的去噪效果以及经过迭代反向翻译自动生成并行数据。这些模型明显优于文献中的方法,同时更简单且具备更少的超参数。在普遍使用的WMT'14英语-法语和WMT'16德语-英语基准测试中,咱们的模型不使用单个平行句的状况下分别得到28.1和25.2 BLEU分数,超过现有技术水平11 BLEU分。在英语-乌尔都语和英语-罗马尼亚语等低资源语言中,咱们的方法比半监督和监督方法得到的效果都要好,咱们的NMT和PBSMT代码是公开的。
总结
Facebook AI研究人员认可了缺少用于训练机器翻译系统的大型并行语料库,并提出了一种更好的方法来利用单语数据进行机器翻译(MT)。特别是,他们认为经过适当的翻译模型初始化、语言建模和迭代反向翻译,能够成功地完成无监督的MT。研究人员提出了两种模型变体,一种是神经模型,另外一种是基于短语的模型,它们的性能都极大地超越了目前最早进的模型。
论文的核心思想是什么?
§ 合适的翻译模型初始化(即字节对编码);§ 在源语言和目标语言中训练语言模型,以提升翻译模型的质量(例如,进行本地替换,单词从新排序);
§ 用于自动生成并行数据的迭代反向转换。
§ 神经机器翻译一个重要的属性:跨语言共享内部表示。§ 基于短语的机器翻译在低资源语言对上优于神经模型,且易于解释和快速训练。
什么是关键成就?
§ 对于英语-法语任务,基于短语的翻译模型得到的BLEU分数为28.1(比以前的最佳结果高出11 BLEU分);§ 对于德语-英语任务,基于神经和短语的翻译模型组合获得BLEU得分为25.2(高出基线10个BLEU点)。
AI社区的对其想法?
将来的研究领域是什么?
什么是可能的商业应用?
你在哪里能够获得实现代码?
未完待续......
本文为云栖社区原创内容,未经容许不得转载。