各类卷积结构原理及优劣总结

卷积神经网络做为深度学习的典型网络,在图像处理和计算机视觉等多个领域都取得了很好的效果。git

Paul-Louis Pröve在Medium上经过这篇文章快速地介绍了不一样类型的卷积结构(Convolution)及优点。为了简单起见,本文仅探讨二维卷积结构。github

卷积

首先,定义下卷积层的结构参数。网络

 

△ 卷积核为三、步幅为1和带有边界扩充的二维卷积结构ide

卷积核大小(Kernel Size):定义了卷积操做的感觉野。在二维卷积中,一般设置为3,即卷积核大小为3×3。学习

步幅(Stride):定义了卷积核遍历图像时的步幅大小。其默认值一般设置为1,也可将步幅设置为2后对图像进行下采样,这种方式与最大池化相似。动画

边界扩充(Padding):定义了网络层处理样本边界的方式。当卷积核大于1且不进行边界扩充,输出尺寸将相应缩小;当卷积核以标准方式进行边界扩充,则输出数据的空间尺寸将与输入相等。ui

输入与输出通道(Channels):构建卷积层时需定义输入通道I,并由此肯定输出通道O。这样,可算出每一个网络层的参数量为 I×O×K,其中K为卷积核的参数个数。例,某个网络层有64个大小为3×3的卷积核,则对应K值为 3×3 =9。编码

空洞卷积

空洞卷积(atrous convolutions)又名扩张卷积(dilated convolutions),向卷积层引入了一个称为 “扩张率(dilation rate)”的新参数,该参数定义了卷积核处理数据时各值的间距。spa

△ 卷积核为三、扩张率为2和无边界扩充的二维空洞卷积blog

一个扩张率为2的3×3卷积核,感觉野与5×5的卷积核相同,并且仅须要9个参数。你能够把它想象成一个5×5的卷积核,每隔一行或一列删除一行或一列。

在相同的计算条件下,空洞卷积提供了更大的感觉野。空洞卷积常常用在实时图像分割中。当网络层须要较大的感觉野,但计算资源有限而没法提升卷积核数量或大小时,能够考虑空洞卷积。

转置卷积

转置卷积(transposed Convolutions)又名反卷积(deconvolution)或是分数步长卷积(fractially straced convolutions)。

反卷积(deconvolutions)这种叫法是不合适的,由于它不符合反卷积的概念。在深度学习中,反卷积确实存在,可是并不经常使用。实际上,反卷积是卷积操做的逆过程。你能够这么理解这个过程,将某个图像输入到单个卷积层,取卷积层的输出传递到一个黑盒子中,这个黑盒子输出了原始图像。那么能够说,这个黑盒子完成了一个反卷积操做,也就是卷积操做的数学逆过程。

转置卷积与真正的反卷积有点类似,由于二者产生了相同的空间分辨率。然而,这两种卷积对输入数据执行的实际数学运算是不一样的。转置卷积层只执行了常规的卷积操做,可是恢复了其空间分辨率。

△ 卷积核为三、步幅为2和无边界扩充的二维卷积结构

举个例子,假如将一张5×5大小的图像输入到卷积层,其中步幅为2,卷积核为3×3,无边界扩充。则卷积层会输出2×2的图像。

若要实现其逆过程,须要相应的数学逆运算,能根据每一个输入像素来生成对应的9个值。而后,将步幅设为2,遍历输出图像,这就是反卷积操做。

△ 卷积核为3×三、步幅为2和无边界扩充的二维转置卷积

转置卷积和反卷积的惟一共同点在于二者输出都为5×5大小的图像,不过转置卷积执行的还是常规的卷积操做。为了实现扩充目的,须要对输入以某种方式进行填充。

你能够理解成,至少在数值方面上,转置卷积不能实现卷积操做的逆过程。

转置卷积只是为了重建先前的空间分辨率,执行了卷积操做。这不是卷积的数学逆过程,可是用于编码器-解码器结构中,效果仍然很好。这样,转置卷积能够同时实现图像的粗粒化和卷积操做,而不是经过两个单独过程来完成。

可分离卷积

在可分离卷积(separable convolution)中,可将卷积核操做拆分红多个步骤。卷积操做用y=conv(x, k)来表示,其中输出图像为y,输入图像为x,卷积核为k。接着,假设k能够由下式计算得出:k=k1.dot(k2)。这就实现了一个可分离卷积操做,由于不用k执行二维卷积操做,而是经过k1和k2分别实现两次一维卷积来取得相同效果。

△ X、Y方向上的Sobel滤波器

Sobel算子一般被用于图像处理中,这里以它为例。你能够分别乘以矢量[1,0,-1]和[1,2,1]的转置矢量后获得相同的滤波器。完成这个操做,只须要6个参数,而不是二维卷积中的9个参数。

这个例子说明了什么叫作空间可分离卷积,这种方法并不该用在深度学习中,只是用来帮你理解这种结构。

在神经网络中,咱们一般会使用深度可分离卷积结构(depthwise separable convolution)。

这种方法在保持通道分离的前提下,接上一个深度卷积结构,便可实现空间卷积。接下来经过一个例子让你们更好地理解。

假设有一个3×3大小的卷积层,其输入通道为1六、输出通道为32。具体为,32个3×3大小的卷积核会遍历16个通道中的每一个数据,从而产生16×32=512个特征图谱。进而经过叠加每一个输入通道对应的特征图谱后融合获得1个特征图谱。最后可获得所需的32个输出通道。

针对这个例子应用深度可分离卷积,用1个3×3大小的卷积核遍历16通道的数据,获得了16个特征图谱。在融合操做以前,接着用32个1×1大小的卷积核遍历这16个特征图谱,进行相加融合。这个过程使用了16×3×3+16×32×1×1=656个参数,远少于上面的16×32×3×3=4608个参数。

这个例子就是深度可分离卷积的具体操做,其中上面的深度乘数(depth multiplier)设为1,这也是目前这类网络层的通用参数。

这么作是为了对空间信息和深度信息进行去耦。从Xception模型的效果能够看出,这种方法是比较有效的。因为可以有效利用参数,所以深度可分离卷积也能够用于移动设备中。

相关阅读

原文:

更多卷积动画:

相关文章
相关标签/搜索