XLNet 是一个相似 BERT 的模型,而不是彻底不一样的模型。总之,XLNet是一种通用的自回归预训练方法。它是CMU和Google Brain团队在2019年6月份发布的模型,最终,XLNet 在 20 个任务上超过了 BERT 的表现,并在 18 个任务上取得了当前最佳效果(state-of-the-art),包括机器问答、天然语言推断、情感分析和文档排序。git
做者表示,BERT 这样基于去噪自编码器的预训练模型能够很好地建模双向语境信息,性能优于基于自回归语言模型的预训练方法。然而,因为须要 mask 一部分输入,BERT 忽略了被 mask 位置之间的依赖关系,所以出现预训练和微调效果的差别(pretrain-finetune discrepancy)。github
基于这些优缺点,该研究提出了一种泛化的自回归预训练模型 XLNet。XLNet 能够:面试
在ELMO/BERT出来以前,你们一般讲的语言模型实际上是根据上文内容预测下一个可能跟随的单词,就是常说的自左向右的语言模型任务,或者反过来也行,就是根据下文预测前面的单词,这种类型的LM被称为自回归语言模型。GPT 就是典型的自回归语言模型。ELMO尽管看上去利用了上文,也利用了下文,可是本质上仍然是自回归LM,这个跟模型具体怎么实现有关系。ELMO是作了两个方向(从左到右以及从右到左两个方向的语言模型),可是是分别有两个方向的自回归LM,而后把LSTM的两个方向的隐节点状态拼接到一块儿,来体现双向语言模型这个事情的。因此实际上是两个自回归语言模型的拼接,本质上仍然是自回归语言模型。架构
自回归语言模型有优势有缺点:机器学习
缺点是只能利用上文或者下文的信息,不能同时利用上文和下文的信息,固然,貌似ELMO这种双向都作,而后拼接看上去可以解决这个问题,由于融合模式过于简单,因此效果其实并非太好。性能
优势其实跟下游NLP任务有关,好比生成类NLP任务,好比文本摘要,机器翻译等,在实际生成内容的时候,就是从左向右的,自回归语言模型自然匹配这个过程。而Bert这种DAE模式,在生成类NLP任务中,就面临训练过程和应用过程不一致的问题,致使生成类的NLP任务到目前为止都作不太好。学习
自回归语言模型只能根据上文预测下一个单词,或者反过来,只能根据下文预测前面一个单词。相比而言,Bert经过在输入X中随机Mask掉一部分单词,而后预训练过程的主要任务之一是根据上下文单词来预测这些被Mask掉的单词,若是你对Denoising Autoencoder比较熟悉的话,会看出,这确实是典型的DAE的思路。那些被Mask掉的单词就是在输入侧加入的所谓噪音。相似Bert这种预训练模式,被称为DAE LM。测试
这种DAE LM的优缺点正好和自回归LM反过来,它能比较天然地融入双向语言模型,同时看到被预测单词的上文和下文,这是好处。缺点是啥呢?主要在输入侧引入[Mask]标记,致使预训练阶段和Fine-tuning阶段不一致的问题,由于Fine-tuning阶段是看不到[Mask]标记的。DAE吗,就要引入噪音,[Mask] 标记就是引入噪音的手段,这个正常。ui
XLNet的出发点就是:可否融合自回归LM和DAE LM二者的优势。就是说若是站在自回归LM的角度,如何引入和双向语言模型等价的效果;若是站在DAE LM的角度看,它自己是融入双向语言模型的,如何抛掉表面的那个[Mask]标记,让预训练和Fine-tuning保持一致。固然,XLNet还讲到了一个Bert被Mask单词之间相互独立的问题。编码
Bert的自编码语言模型也有对应的缺点,就是XLNet在文中指出的:
上面两点是XLNet在第一个预训练阶段,相对Bert来讲要解决的两个问题。
其实思路也比较简洁,能够这么思考:XLNet仍然遵循两阶段的过程,第一个阶段是语言模型预训练阶段;第二阶段是任务数据Fine-tuning阶段。它主要但愿改动第一个阶段,就是说不像Bert那种带Mask符号的Denoising-autoencoder的模式,而是采用自回归LM的模式。就是说,看上去输入句子X仍然是自左向右的输入,看到Ti单词的上文Context_before,来预测Ti这个单词。可是又但愿在Context_before里,不只仅看到上文单词,也能看到Ti单词后面的下文Context_after里的下文单词,这样的话,Bert里面预训练阶段引入的Mask符号就不须要了,因而在预训练阶段,看上去是个标准的从左向右过程,Fine-tuning固然也是这个过程,因而两个环节就统一块儿来。固然,这是目标。剩下是怎么作到这一点的问题。
首先,须要强调一点,尽管上面讲的是把句子X的单词排列组合后,再随机抽取例子做为输入,可是,实际上你是不能这么作的,由于Fine-tuning阶段你不可能也去排列组合原始输入。因此,就必须让预训练阶段的输入部分,看上去仍然是x1,x2,x3,x4这个输入顺序,可是能够在Transformer部分作些工做,来达成咱们但愿的目标。
具体而言,XLNet采起了Attention掩码的机制,你能够理解为,当前的输入句子是X,要预测的单词Ti是第i个单词,前面1到i-1个单词,在输入部分观察,并没发生变化,该是谁仍是谁。可是在Transformer内部,经过Attention掩码,从X的输入单词里面,也就是Ti的上文和下文单词中,随机选择i-1个,放到Ti的上文位置中,把其它单词的输入经过Attention掩码隐藏掉,因而就可以达成咱们指望的目标(固然这个所谓放到Ti的上文位置,只是一种形象的说法,其实在内部,就是经过Attention Mask,把其它没有被选到的单词Mask掉,不让它们在预测单词Ti的时候发生做用,如此而已。看着就相似于把这些被选中的单词放到了上文Context_before的位置了)。
具体实现的时候,XLNet是用“双流自注意力模型”实现的,细节能够参考论文,可是基本思想就如上所述,双流自注意力机制只是实现这个思想的具体方式,理论上,你能够想出其它具体实现方式来实现这个基本思想,也能达成让Ti看到下文单词的目标。
这里简单说下“双流自注意力机制”,一个是内容流自注意力,其实就是标准的Transformer的计算过程;主要是引入了Query流自注意力,这个是干吗的呢?其实就是用来代替Bert的那个[Mask]标记的,由于XLNet但愿抛掉[Mask]标记符号,可是好比知道上文单词x1,x2,要预测单词x3,此时在x3对应位置的Transformer最高层去预测这个单词,可是输入侧不能看到要预测的单词x3,Bert实际上是直接引入[Mask]标记来覆盖掉单词x3的内容的,等于说[Mask]是个通用的占位符号。而XLNet由于要抛掉[Mask]标记,可是又不能看到x3的输入,因而Query流,就直接忽略掉x3输入了,只保留这个位置信息,用参数w来表明位置的embedding编码。其实XLNet只是扔了表面的[Mask]占位符号,内部仍是引入Query流来忽略掉被Mask的这个单词。和Bert比,只是实现方式不一样而已。
上面讲的Permutation Language Model是XLNet的主要理论创新,因此介绍的比较多,从模型角度讲,这个创新仍是挺有意思的,由于它开启了自回归语言模型如何引入下文的一个思路,相信对于后续工做会有启发。固然,XLNet不只仅作了这些,它还引入了其它的因素,也算是一个当前有效技术的集成体。感受XLNet就是Bert、GPT 2.0和Transformer XL的综合体变身:
目前在NLP领域中,处理语言建模问题有两种最早进的架构:RNN和Transformer。RNN按照序列顺序逐个学习输入的单词或字符之间的关系,而Transformer则接收一整段序列,而后使用self-attention机制来学习它们之间的依赖关系。这两种架构目前来看都取得了使人瞩目的成就,但它们都局限在捕捉长期依赖性上。
为了解决这一问题,CMU联合Google Brain在2019年1月推出的一篇新论文《Transformer-XL:Attentive Language Models beyond a Fixed-Length Context》同时结合了RNN序列建模和Transformer自注意力机制的优势,在输入数据的每一个段上使用Transformer的注意力模块,并使用循环机制来学习连续段之间的依赖关系。
为什么要提这个模型?由于Transformer-XL是基于这个模型进行的改进。
Al-Rfou等人基于Transformer提出了一种训练语言模型的方法,来根据以前的字符预测片断中的下一个字符。例如,它使用 预测字符
,而在
以后的序列则被mask掉。论文中使用64层模型,并仅限于处理 512个字符这种相对较短的输入,所以它将输入分红段,并分别从每一个段中进行学习,以下图所示。 在测试阶段如需处理较长的输入,该模型会在每一步中将输入向右移动一个字符,以此实现对单个字符的预测。
该模型在经常使用的数据集如enwik8和text8上的表现比RNN模型要好,但它仍有如下缺点:
Transformer-XL架构在vanilla Transformer的基础上引入了两点创新:循环机制(Recurrence Mechanism)和相对位置编码(Relative Positional Encoding),以克服vanilla Transformer的缺点。与vanilla Transformer相比,Transformer-XL的另外一个优点是它能够被用于单词级和字符级的语言建模。
引入循环机制
与vanilla Transformer的基本思路同样,Transformer-XL仍然是使用分段的方式进行建模,但其与vanilla Transformer的本质不一样是在于引入了段与段之间的循环机制,使得当前段在建模的时候可以利用以前段的信息来实现长期依赖性。以下图所示:
在训练阶段,处理后面的段时,每一个隐藏层都会接收两个输入:
这两个输入会被拼接,而后用于计算当前段的Key和Value矩阵。
该方法能够利用前面更多段的信息,测试阶段也能够得到更长的依赖。在测试阶段,与vanilla Transformer相比,其速度也会更快。在vanilla Transformer中,一次只能前进一个step,而且须要从新构建段,并所有从头开始计算;而在Transformer-XL中,每次能够前进一整个段,并利用以前段的数据来预测当前段的输出。
相对位置编码
在Transformer中,一个重要的地方在于其考虑了序列的位置信息。在分段的状况下,若是仅仅对于每一个段仍直接使用Transformer中的位置编码,即每一个不一样段在同一个位置上的表示使用相同的位置编码,就会出现问题。好比,第i−2i-2i−2段和第i−1i-1i−1段的第一个位置将具备相同的位置编码,但它们对于第iii段的建模重要性显然并不相同(例如第i−2i-2i−2段中的第一个位置重要性可能要低一些)。所以,须要对这种位置进行区分。
论文对于这个问题,提出了一种新的位置编码的方式,即会根据词之间的相对距离而非像Transformer中的绝对位置进行编码。从另外一个角度来解读公式的话,能够将attention的计算分为以下四个部分:
尽管看上去,XLNet在预训练机制引入的Permutation Language Model这种新的预训练目标,和Bert采用Mask标记这种方式,有很大不一样。其实你深刻思考一下,会发现,二者本质是相似的。
区别主要在于:
因此,本质上二者并没什么太大的不一样,只是Mask的位置,Bert更表面化一些,XLNet则把这个过程隐藏在了Transformer内部而已。这样,就能够抛掉表面的[Mask]标记,解决它所说的预训练里带有[Mask]标记致使的和Fine-tuning过程不一致的问题。至于说XLNet说的,Bert里面被Mask掉单词的相互独立问题,也就是说,在预测某个被Mask单词的时候,其它被Mask单词不起做用,这个问题,你深刻思考一下,实际上是不重要的,由于XLNet在内部Attention Mask的时候,也会Mask掉必定比例的上下文单词,只要有一部分被Mask掉的单词,其实就面临这个问题。而若是训练数据足够大,其实不靠当前这个例子,靠其它例子,也能弥补被Mask单词直接的相互关系问题,由于总有其它例子可以学会这些单词的相互依赖关系。
固然,XLNet这种改造,维持了表面看上去的自回归语言模型的从左向右的模式,这个Bert作不到,这个有明显的好处,就是对于生成类的任务,可以在维持表面从左向右的生成过程前提下,模型里隐含了上下文的信息。因此看上去,XLNet貌似应该对于生成类型的NLP任务,会比Bert有明显优点。另外,由于XLNet还引入了Transformer XL的机制,因此对于长文档输入类型的NLP任务,也会比Bert有明显优点。
做者:@mantchs
GitHub:github.com/NLP-LOVE/ML…