Transformer的前世此生

点击上方视学算法”,选择加"星标"或“置顶html

重磅干货,第一时间送达node

来自 | 炼丹笔记干货   做者 | Lilian


Transformer Familygit



01github

准备web




02算法

Attention 以及 Self-Attention微信


1.Attention
网络

  • 是神经网络中的一种机制:模型能够经过选择性地关注给定的数据集来学习作出预测。Attention的个数是经过学习权重来量化的,输出则一般是一个加权平均值。

2.Self-Attention架构

  • 是一种注意机制,模型利用对同同样本观测到的其余部分来对数据样本的剩下部分进行预测。从概念上讲,它感受很是相似于non-local的方式。还要注意的是,Self-attention是置换不变的;换句话说,它是对集合的一种操做。

而关于attention和self-attention存在很是多的形式,咱们以前常见的Transformer是依赖于scaled-dot-product的形式,也就是:给定query矩阵Q, key矩阵K以及value矩阵V,那么咱们的输出就是值向量的加权和,其中,分配给每一个值槽的权重由Quey与相应Key的点积肯定。app

对于一个query以及一个key向量, ,咱们计算下面的值:

其中, 是keys的集合。


03

Multi-Head Self-Attention


multi-head self-attention是Transformer的核心组成部分,和简单的attention不一样之处在于,Multihead机制将输入拆分为许多小的chunks,而后并行计算每一个子空间的scaled dot product,最后咱们将全部的attention输出进行拼接,

其中, 是concate操做,是权重矩阵,它将咱们的输出embeddings(L*d)的映射到query,key,value矩阵,并且 是输出的线性转化,这些权重都是在训练的时候进行训练的。



04

Transformer


Transformer,不少时候咱们也称之为"vanilla Transformer", 它有一个encoder-decoder的结构,decoder的Transformer能够在语言建模的时候得到很是好的效果

Encoder-Decoder结构

Encoder生成一个基于attention的表示,可以从一个大的上下文中定位一个特定的信息片断。它由6个身份识别模块组成,每一个模块包含两个子模块、一个multihead self-attention和一个point-wise全链接前馈网络。

按point-wise来讲,这意味着它对序列中的每一个元素应用相同的线性变换(具备相同的权重)。这也能够看做是滤波器大小为1的卷积层。每一个子模块都有一个剩余链接和layer normalization。全部子模块输出相同维度 的数据。

Transformer的decoder功能是从encoder的表示中抽取信息。该结构与encoder很是类似,只是decoder包含两个多头注意子模块,而不是在每一个相同的重复模块中包含一个。第一个多头注意子模块被屏蔽,以防止位置穿越。

Positional Encoding

由于self-attention操做是permutation不变的,因此使用正确的位置编码是很是重要的,此处咱们使用以下的位置编码来提供order信息,位置编码 ,咱们能够直接将它们加入到咱们到vanilla Transformer中,

  • (1).Sinusoidal positional encoding,给定token的位置 ,维度,


  • (2).Learned positional encoding,对每一个学习获得对列向量,对每一个绝对位置进行编码。

辅助Loss

为了取得更好的效果,咱们通常会加入辅助loss,

  • 除了在序列末尾只生成一个预测以外,还要求每一个immediatge位置能作出正确的预测,迫使模型预测给定的较小上下文(例如,上下文窗口开头的前几个tokens)。

  • 每一个中间Transformer也用于进行预测。随着训练的进行,较低层的权重对总损失的贡献愈来愈小。

  • 序列中的每一个位置能够预测多个目标,即,对将来token的两个或多个预测。


05

ACT(Adaptive Computation Time)


Adaptive Computation Time是一种动态决定递归神经网络须要多少计算步骤的机制

咱们有一个RNN模型 ,它由输入的权重 ,一个参数话的状态迁移函数 一个输出权重 和一个输出的bias 组成。给定一个输入序列 ,输出的序列 是由:

ACT使上述RNN设置可以在每一个输入元素上执行数量可变的步骤。大量的计算步骤会致使中间状态序列 而且输出 , 它们都共享相同的迁移状态函数 , 以及相同的输出权重 , :

其中 是一个二元的flag,来表示是否输入步是递增的。

step的个数 是由额外的sigmoidal halting单元 决定的,带有相关的权重矩阵 以及bias , 对于第 输入元素在中间步骤 处输出一个停止几率 :

为了使计算在一个步骤后中止,ACT引入了一个小常数 (例如0.01),所以每当累积几率超过 时,计算就会中止。

其中 为中间步骤个数的上限。

最终状态和输出的mean-field的update:

避免对每一个输入进行没必要要的思考,ACT增长了ponder cost

用此来鼓励中间计算步骤的小的次数。


06

Improved Attention Span

提升Attention Span的目的是使可用于self-attention的上下文更长、更有效、更灵活。

1. Longer Attention Span(Transformer-XL)

vanilla Transformer有一个固定的和有限的注意广度。在每一个更新步骤中,该模型只能处理同一段中的其余元素,而且没有任何信息能够在分离的固定长度段之间流动。也就是说层数固定不够灵活,同时对于算力需求很是大,致使其并不适合处理超长序列。

这种context segmentation会致使几个问题:

  • 模型不能捕获很是长期的依赖关系;
  • 在没有上下文或上下文很薄的状况下,很难预测每一个片断中的前几个tokens。
  • 评估是昂贵的。每当segment右移一位时,新的segment就会从头开始从新处理,尽管有不少重叠的tokens。

Transformer-XL解决来上下文的segmentation问题:

  • 对于segments之间的隐藏状态进行重复使用;
  • 使用位置编码使其适用于从新使用的states;

Hidden state Reuse:



咱们对第 的segment的隐藏状态打标签为 ,除了对相同segment 的最后一层的英藏状态,咱们还依赖于以前的segment 的相同层的隐藏状态。经过从前面隐藏状态加入信息,模型能够将attention的广度进行扩大,能够在多个segments之间发挥做用:

key和value依赖于扩展的隐藏状态,同时query仅仅只依赖于当前步的隐藏状态, 是序列长度的维度的concatenation操做。

2. Relative Positional Encoding

为了处理这种新的attention span的形式,Transformer-XL提出了一种新的位置编码。若是使用相同的方法对绝对位置进行编码,则前一段和当前段将分配相同的编码,这是不须要的。

为了保持位置信息流在各段之间的一致性,Transformer XL对相对位置进行编码,由于它足以知道位置的offset,从而作出更好的预测,即: ,在一个key向量 以及它的query之间

若是咱们省略 而且对它们以softmax的形式进行normalize,咱们能够重写在位置 的query和位置 的key之间的attention分数:

上面的几项又能够被表示为:

  • 用相对位置编码 替换 ;
  • 用两个可训练的参数 (针对内容)和 (针对位置)替换 ;
  • 划分为两个矩阵, 用于内容信息, 用于位置信息;

3. Adaptive Attention Span

Transformer的一个关键优点是可以捕获长期依赖关系。根据上下文的不一样,模型可能更愿意在某个时候比其余人更进一步地注意;或者一个attention head可能有不一样于另外一个attention head的注意模式。若是attention span可以灵活地调整其长度,而且只在须要时再往回看,这将有助于减小计算和内存开销,从而在模型中支持更长的最大上下文大小(这就是Adaptive Attention Span的动机)。

后来Sukhbaatar等人提出了一种self-attention机制以寻找最优的attention span,他们假设不一样的attention heads能够在相同的上下文窗口中赋予不一样的分数,所以最优的span能够被每一个头分开训练。

给定第 个token,咱们须要计算该token和其它在位置 的keys的attention权重,其中 定义了第 个token第上下文窗口:

增长了一个soft mask函数 来控制有效的可调attention span,它将query和key之间的距离映射成一个 值。 参数化, 要学习:

其中 是一个超参数,它能够定义 的softness:

soft mask函数应用于注意权重中的softmax元素:

在上面的等式, 是可微的,因此能够和模型的其它部分一块儿联合训练,参数 每一个head能够分开学习,此外,损失函数有额外的 惩罚 .

利用Adaptive Computation Time,该方法能够进一步加强attention span的长度,动态地适应当前输入。attention head在时间t的跨度参数 是一个sigmoid函数, ,其中向量 和偏置标量 与其余参数一块儿学习。

在具备自适应注意广度的Transformer实验中,Sukhbatar等人发现了一个广泛趋势,即较低层不须要很长的注意广度,而较高层的一些attention heads可能会使用很是长的注意广度。适应性attention span有助于大大减小失败的次数,特别是在一个有许多注意层和大上下文长度的大模型中。

4. Localized Attention Span (Image Transformer)

Transformer最初用于语言建模。文本序列是一维的,具备明确的时间顺序,所以attention span随着上下文大小的增长而线性增加。

然而,若是咱们想在图像上使用Transformer,咱们还不清楚如何定义上下文的范围或顺序。Image Transformer采用了一种图像生成公式,相似于Transformer框架内的序列建模。此外,图像Transformer将self-attention span限制在局部邻域内,所以模型能够放大以并行处理更多的图像,并保持可能性损失可控。

encoder-decoder架构保留用于image-conditioned生成:

  • encoder生成源图像的上下文化的每像素信道表示;
  • decoder自回归地生成输出图像,每一个时间步每像素一个通道。

让咱们将要生成的当前像素的表示标记为查询 。其表示将用于计算 的其余位置是关键向量 它们一块儿造成一个内存矩阵 的范围定义了像素查询 的上下文窗口。

Image Transformer引入了两种类型的localized ,以下所示。

  • (1).1D Local Attention:输入图像按光栅扫描顺序(即从左到右、从上到下)展平。而后将线性化后的图像分割成不重叠的查询块。上下文窗口由与 相同的查询块中的像素和在此查询块以前生成的固定数量的附加像素组成。

  • (2).2D Local Attention:图像被分割成多个不重叠的矩形查询块。查询像素能够处理相同内存块中的全部其余像素。为了确保左上角的像素也能够有一个有效的上下文窗口,内存块将分别向上、左和右扩展一个固定的量。


07

Less Time and Memory Cost

如何减小计算和内存的消耗。

1. Sparse Attention Matrix Factorization (Sparse Transformers)

  • 通常Transformer的计算和存储开销随序列长度呈二次增加,所以很难应用于很长的序列

Sparse Transformer

引入分解的self-attention,经过稀疏矩阵分解,咱们能够将训练上百层的dense的attention网络,这样序列长度就能够到达16384.

给定attention连接的模式集合 ,其中 记录key位置的集合,第 个query向量能够扩展为:

尽管 的size是不固定的, 是size为 的,所以, .

在自回归的模型中,一个attention span被定义为 , 它容许每一个token能够处理过去的全部其它位置。

在分解的self-attention中, 被分解为树的依赖,例如对于没对 ,其中 , 存在一条路径连接

更加精确地说,集合 被划分为 个non-overlapping的子集,第 个子集被表示为 ,因此输出位置 和任意的 的路径有最大长度 ,例如,若是 的索引路径,咱们有

Sparse Factorized Attention

Sparse Transformer提出了两类分解的attention,

  • Strided attention(stride ,在图像中,每一个像素能够连接到全部到以前 个像素raster scanning顺序,而后那些像素在相同列中相互连接。
  • Fixed attention,一个小的tokens集合总结以前的位置而且向将来的位置传递信息:

其中 是一个超参数.

Use Factorized Self-Attention in Transformer

存在三种方式使用sparse factorized attention模式的方法:

  1. 每一个residual block的attention type,把它们交错起来,,其中 是当前residual模块的index;
  2. 设置一个单独的head,它负责全部分解head负责的位置,;
  3. 食欲哦那个一个multi-head attention机制,可是和原始的transformer不一样,每一个head能够接受上面的一种模式,1或者2.

稀疏Transformer还提出了一套改进方案,将Transformer训练到上百层,包括梯度检查点、在backward pass的时候从新计算attention和FF层、混合精度训练、高效的块稀疏实现等。

2. Locality-Sensitive Hashing (Reformer)

Reformer模型旨在解决Transformer中的下面几个痛点:

  • 具备N层的模型中的内存比单层模型中的内存大N倍,由于咱们须要存储反向传播的activations。
  • 中间FF层一般至关大。
  • 长度为 的序列上的注意矩阵一般在记忆和时间上都须要 的内存和时间;

Reformer进行了两种改变:

  • 将dot-product的attention替换为locality-sensitive hashing(LSH) attention,这将时间复杂度从 下降为 ;
  • 将标准residual block替换为reversible residual layer,这样在训练期间只容许存储一次激活,而不是 次(即与层数成比例)。

Locality-Sensitive Hashing Attention

在attention 中,咱们更加关注大的只,对于每一个 ,咱们在寻找 中于 最近的一个行向量,为了寻找它,咱们在attention机制中加入:Locality-Sensitive Hashing (LSH)

若是它保留了数据点之间的距离信息,咱们称hashing机制 是locality-sensitive的,这么作相近的向量能够得到类似的hash,Reformer中,给定一个固定的随机矩阵 ,其中 是超参数,hash函数为

在LSH attention中,一个query只能够和在相同的hashing bucket中的位置进行交互, ,

  • attention矩阵一般是稀疏的;
  • 使用LSH, 咱们基于hash buckets能够对keys和queries进行排序
  • 设置 ,这样,一个bucket中的keys和queries相等,更便于批处理。有趣的是,这种“共享QK”配置并不影响Transformer的性能。
  • 使用 个连续的group在一块儿的query的batching,

Reversible Residual Network

Reversible Residual Network的动机是设计一种结构,使任何给定层的激活均可以从下一层的激活中恢复,只需使用模型参数。所以,咱们能够经过在backprop期间从新计算激活来节省内存,而不是存储全部激活。

给定一层 , 传统的residual layer都是作的 ,可是reversible layer将输入和输出split为 ,而后执行下面的操做:

reversing就是:

咱们将相同的思想应用到Transformer中获得:

内存能够经过chunking 前向计算进行操做:


08

Make it Recurrent (Universal Transformer)

Universal Transformer将Transformer中的自我注意与RNN中的循环机制结合起来,旨在受益于Transformer的长期全局receptive field和RNN的学习inductive误差。

Universal Transformer使用自适应计算时间动态调整步长。若是咱们固定步数,一个通用变换器就至关于一个多层变换器,具备跨层共享的参数。

在较高的层次上,Universal Transformer能够看做是学习每一个token的隐藏状态表示的递归函数。递归函数在标记位置之间并行演化,位置之间的信息经过self-attention进行共享。


给定长度为 的序列,Universal Transformer在第 步迭代更新表示 ,在第0步, 被出事为输入embedding矩阵,因此的位置编码在multi-head self-attenion中被并行处理,而后在通过一个recurrent transition function

Transition( )能够是一个 separable convolution或者fully-connected neural network。


在Universal Transformer的自适应版本中,循环步数 由ACT动态肯定。每一个位置都配有一个动态中止机制。一旦每令牌循环块中止,它将中止进行更多的循环更新,而只是将当前值复制到下一步,直到全部块中止或直到模型达到最大步长限制。


09

Stabilization for RL (GTrXL)

Self-attention避免了将整个过去压缩成一个固定大小的隐藏状态,而且不像RNN那样受到梯度消失或爆炸的影响。强化学习任务确定能从这些特质中受益。然而,即便在有监督学习中,也很难训练Transformer,更不用说在RL环境中了。毕竟,稳定和训练一个LSTM代理自己多是至关具备挑战性的。

Gated Transformer-XL (GTrXL)是使用Transformer到RL中的一次尝试,GTrXL能够在Transformer-XL上成功稳定的训练。

  • layer normalization应用于residual模块中的输入流,而不该用于shortcut流。这种从新排序的一个关键好处是容许原始输入从第一层流到最后一层。

  • Residual链接被GRU样式选通机制取代。

参考文献

  1. https://lilianweng.github.io/lil-log/2020/04/07/the-transformer-family.html#locality-sensitive-hashing-reformer


点个在看 paper不断!

本文分享自微信公众号 - 视学算法(visualAlgorithm)。
若有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一块儿分享。

相关文章
相关标签/搜索