这些深度学习术语,你了解多少?(上)

对于一个新手来讲,深度学习术语可能很是难以理解。本表试图解释深度学习经常使用术语并连接到原始参考,以帮助读者深刻了解特定主题。html

深度学习与“通常”的机器学习术语之间的界限很是模糊。例如,我这里不包括“交叉验证”,由于它是一种通用技术,用于整个机器学习。可是,我加入了softmaxword2vec等术语,由于它们一般与深度学习相关,即便它们不是深度学习技术。python

激活函数

为了让神经网络学习复杂的决策边界,咱们将非线性激活函数应用于其某些层。经常使用的函数包括sigmoidtanhReLU(整流线性单元)及它们的变体。git

Adadeltagithub

Adadelta是一种基于梯度降低的学习算法,能够随时间调整每一个参数的学习速率。它被认为是对Adagrad的改进,由于Adagrad对超参数很敏感,而且可能过于快速的下降学习速度。Adadelta相似于rmsprop,能够用来代替朴素SGD算法

相关资源:网络

一、ADADELTA:一种自适应学习率方法架构

二、斯坦福CS231n:优化算法框架

三、梯度降低优化算法概述机器学习

Adagrad函数

Adagrad是一种自适应学习速率算法,它能够跟随时间变化,并自动调整每一个参数的学习速率。它能够代替vanilla SGD使用,而且对稀疏数据特别有用,它能够为不常常更新的参数分配更高的学习率。

相关资源:

一、在线学习和随机优化的自适应梯度降低方法

二、斯坦福CS231n:优化算法

三、梯度降低优化算法概述

Adam

Adam是一种相似于rmsprop的自适应学习速率算法,可是使用梯度的第一和第二时刻的运行平均值直接估计更新,而且还包括误差校订项。

一、Adam:随机优化的一种方法

二、梯度降低优化算法概述

Affine layer(仿射层)

一种神经网络中的彻底链接层。仿射意味着前一层中的每一个神经元都链接到当前层中的每一个神经元。在许多状况下,这是神经网络的“标准”层。在进行最终预测以前,一般会在卷积神经网络递归神经网络的输出之上添加仿射层。仿射层一般形式的y=f(Wx+b),其中x是该层的输入,W参数,b偏置向量,f是非线性激活函数

注意力机制

注意力机制受到人类视觉注意力机制的启发,即关注图像特定部分的能力。注意力机制能够应用在语言处理和图像识别架构中,以帮助网络了解在进行预测时“关注”的内容。

一、深度学习和NLP中的注意力机制

Alexnet

Alexnet是一种卷积神经网络架构的名称,它以绝对的优点赢得了ILSVRC 2012竞赛。它由五个卷积层组成,其中一些后面是最大池层,三个是彻底链接的层,最后是1000-way softmax。Alexnet在深度卷积神经网络的ImageNet分类中被引入。

自动编码器

自动编码器是一种神经网络模型,其目标是预测输入自己,一般是经过网络中某处的“瓶颈”。经过引入瓶颈,咱们能够强制网络输入的低维表示,这样能有效地将输入压缩为更好的表示。自动编码器与PCA和其余降维技术差很少,但因为其非线性的特性,它能够学习更复杂的映射。并且存在不少种自动编码器架构,包括去噪自动编码器变分自动编码器序列自动编码器

平均池(Average-Pooling)

Average-Pooling是用于图像识别的卷积神经网络的聚集技术。它的工做原理是在一系列特征(例如像素)上滑动窗口,并获取窗口内全部值的平均值。它能够将输入压缩为较低维表示。

反向传播

反向传播是一种有效计算神经网络中梯度的算法,更通常地说,是一种前馈计算图。能够把它归结为从网络输出开始应用差别化的链规则并向后传播梯度,反向传播的第一次使用能够追溯到1960年代的Vapnik。

一、计算图上的微积分:反向传播

反向传播时间(BPTT)

Backpropagation Through Time(paper)是应用于递归神经网络(RNN)的反向传播算法。BPTT可被视为应用于RNN的标准反向传播算法,其中每一个时间步长表明一个层,而且参数在各层之间共享。因为RNN在全部时间步骤中共享相同的参数,所以必须将“一段时间”的错误“经过时间”反向传播到全部先前的时间步骤,所以名称。当处理长序列时,常用Truncated-BPTT来下降计算成本。Truncated-BPTT在固定步数后中止反向传播错误。

一、经过时间反向传播:它作什么以及如何作到这一点

批量标准化(Batch Normalization)

批量标准化是一种对每一个小批量的层输入进行标准化的技术。它加快了训练的速度,容许使用更高的学习率。目前已经发现批量标准化对卷积和前馈神经网络很是有效,但还没有成功应用于递归神经网络。

一、批量标准化:经过减小内部协变量转换来加速深度网络训练

二、批量标准化递归神经网络

双向RNN

双向RNN是一种神经网络,包含两个进入不一样方向的RNN。前向RNN从开始到结束读取输入序列,然后向RNN从结束到开始读取输入序列。两个RNN堆叠在彼此之上,而且一般经过附加两个向量来组合它们的状态。双向RNN一般用于天然语言问题,由于但愿在进行预测以前考虑单词以前和以后的上下文。

一、双向递归神经网络

Caffe

Caffe是伯克利视觉和学习中心开发的深度学习框架,Caffe在视觉任务和CNN模型中特别受欢迎。

分类交叉熵损失(Categorical Cross-Entropy Loss)

分类交叉熵损失也称为负对数似然,它是分类问题中流行损失函数,它能够测量两个几率分布之间的类似性,一般是真实标签和预测标签。它由真实标签的几率分布L =-sum(y * log(y_prediction))在何处给出,y_prediction是预测标签的几率分布,一般来自softmax

通道(Channel)

向Deep Learning模型输入数据能够有多个通道。通常的图像是具备红色、绿色和蓝色通道。图像能够表示为三维张量,其尺寸对应于通道、高度和宽度。天然语言数据也能够具备多个通道,例如以不一样类型的嵌入的形式。

卷积神经网络(CNN,ConvNet)

CNN使用卷积来链接输入的局部区域的提取特征。大多数CNN都包含卷积,聚集仿射层。CNN已经愈来愈受欢迎,特别是他们在视觉识别任务方面的出色表现。

一、斯坦福CS231n类-视觉识别的卷积神经网络

二、NLP中使用卷积神经网络

深度信念网络(DBN)

DBN是一种几率图形模型,其以无监督的方式学习数据的分层表示。DBN由多个隐藏层组成,每一个连续的层中的神经元之间具备链接。DBN是经过将多个RBN堆叠在一块儿并逐个训练来构建的。

一、深度信念网络的快速学习算法

DeepDream

Google发明的一种技术,旨在提炼深层卷积神经网络捕获的知识。该技术能够生成新图像或者转换现有图像并赋予它们梦幻般的风格。

Dropout

Dropout是神经网络的正则化技术,可防止过分拟合。它经过在每次训练迭代中将它们的一部分随机设置为0来防止神经元过分适应。能够以各类方式解释丢失,例如从指数数量的不一样网络中随机采样。Dropout层首先经过在CNN中的使用而得到普及,但此后已应用于其余层。

一、Dropout:一种防止神经网络过分拟合的简单方法

二、递归神经网络正则化

嵌入(Embedding)

嵌入是将输入(例如单词或句子)映射到向量中。有一种流行的嵌入类型是word嵌入,例如word2vecGloVe。它们能够嵌入句子,段落或图像。例如,经过将图像及其文本描述映射到公共嵌入空间并最小化它们之间的距离,咱们能够将标签与图像匹配。嵌入能够明确地学习,例如在word2vec中,也做为监督任务的一部分,例如情感分析。一般,网络的输入层用预先训练的嵌入进行初始化,而后将其微调到手头的任务。

梯度爆炸问题

梯度爆炸问题正好与消失梯度问题相反。在深度神经网络中,梯度可能在反向传播期间爆炸,致使数量溢出。处理梯度爆炸的经常使用技术是执行梯度裁剪。

一、训练递归神经网络的难点

微调

微调是指使用来自其余任务(例如无人监督的训练任务)的参数初始化网络,而后根据手头的任务更新这些参数的技术。例如,NLP架构一般使用像word2vec这样的预训练词嵌入模型,而后在训练期间根据诸如情感分析之类的特定任务更新这些词嵌入模型。

梯度裁剪

梯度裁剪是一种防止在很是深的网络中爆炸梯度的技术。执行梯度裁剪有不少方式,但常见的是当参数矢量的L2范数超过某个阈值时归一化参数矢量的梯度new_gradients=gradients * threshold/l2_norm(gradients)。

手套(GloVe)

GloVe是一种用于得到单词的矢量表示(嵌入)的无监督学习算法。GloVe向量与word2vec具备相同的目的,但因为受到共现统计的训练,所以具备不一样的向量表示。

一、GloVe:Word表征的全局向量

GoogleLeNet

它是赢得ILSVRC 2014挑战的卷积神经网络架构。网络使用Inception模块来减小参数并提升网络内计算资源的利用率。

GRU

门控循环单元是LSTM单元的简化版本,参数较少。就像LSTM单元同样,它使用门控机制防止RNN经过出现梯度消失的问题。GRU由一个复位门和更新门组成,用于肯定旧存储器的哪一部分与当前时间步的新值保持一致。

一、使用RNN编码器-解码器学习短语表示以进行统计机器翻译

二、循环神经网络教程-使用Python和Theano实现GRU/LSTM RNN

初始模块

初始模块用于卷积神经网络,经过堆叠1×1卷积下降维数,实现更高效的计算和更深刻的网络。

Keras

Kears是一个基于Python的深度学习库,包含许多用于深度神经网络的高级构建块。它能够在TensorFlowTheanoCNTK之上运行

LSTM

长短时间记忆网络是为了经过使用记忆门控机制来防止递归神经网络中的消失梯度问题。使用LSTM单元计算RNN中的隐藏状态,帮助网络有效地传播梯度并学习远程依赖性。

一、长短时间记忆

二、了解LSTM网络

三、循环神经网络教程-使用Python和Theano实现GRU/LSTM RNN

Max-pooling

操做一般在卷积神经网络中使用。最大池层会选择特征块中的最大值,就像卷积层同样,池化层经过窗口大小和步幅大小进行参数化。例如,咱们可使用步幅大小2在10×10特征矩阵上滑动尺寸为2×2的窗口,在每一个窗口内的全部4个值中选择最大值,从而产生新的5×5特征矩阵。合并图层有助于经过仅保留最显着的信息来减小表征的维度,而且在图像输入的状况下,它们提供转换的基本不变性(即便图像移动了几个像素,也将选择相同的最大值)。一般在连续的卷积层之间会插入池化层。

MNIST

MNIST数据集是最经常使用的图像识别数据集。它包括60,000个训练和10,000个手写数字测试示例。每一个图像大28×28像素,现有技术模型一般在测试装置上达到99.5%或更高的精度。

未完待续····


本文做者:【方向】

阅读原文

本文为云栖社区原创内容,未经容许不得转载。

相关文章
相关标签/搜索