Semantic Segmentation

Atrous convolution ,就是带洞的卷积,卷积核是稀疏的
下 图(b)是带洞卷积,能够跳着选,隔一个加一个。

The First Column The Second Column
Dilated Convolutions 翻译为扩张卷积或空洞卷积
atrous convolution
带洞卷积
standard convolution
upsampling 将变小的图像恢复到原始大小
dilated convolution
带洞卷积减小了核的大小,
能够达到节省内存的做用。
并且带洞卷积的有效性基于一个假设:
紧密相邻的像素几乎相同,所有归入属于冗余,
不如跳H(hole size)个取一个。
DenseNet
Dense Block模块,其中层数为5,
即具备5个BN+Relu+Conv(3*3)这样的layer,
网络增加率为4,简单的说就是每个layer输出的
feature map的维度为4。
DenseNet-BC的网络结构参数
其中网络增加率K=32,
conv 表明BN-ReLU-Conv
DenseNet在ImageNet上
DenseNet-BC和ResNet对比
在空洞卷积中有个重要的参数叫rate,
这个参数表明了空洞的大小。
当rate =1,
能够把红色的点想象成在原图上
的采样点就是原图不丢失任何信息采样
如图(a)
当rate=2,
能够把红色的点想象成在原图上
的采样点就是在原图上每隔一(rate-1)个像素采样,
如图b,
而后将采样后的图像与kernel作卷积,
这样作其实变相增大了感觉野。
当rate=4,
能够把红色的点想象成在原图上
的采样点
如图(C)
DeepLab V3
第一种延伸架构Going Deeper(Cascaded Module)
Output Stride=16 表示本来图片是feature map的16倍大
复制Resnet中最后一个Convolution Block
(Block 4),
并连续接在后端(图中的Block 5 + 6 + 7),
以取得更多multi -scale cascade context。
这里为了维持相同的feature map大小
在后面的block上所使用的
Atrous Rate须要以指数成长。
DeepLab V3
第二种延伸架构ASPP(Parallel Module)
DeepLab V3
第二种延伸架构ASPP(Parallel Module)
在最后的feature map上,
接上平行的Convolution Block,
每个Block取用不一样rate的Atrous Convolution,
最后将全部的资讯合并起来再作预测。
ASPP在本来的DeepLab就已经被提出了,
可是这边做者另外在ASPP后
接上了Batch Normalization,
另外加入了
前面Image Feature Map一块儿合并
作Global Average Pooling ,
实验也证实这样的小技巧是有效的
upsample意思为上采样,
简单来讲就是pooling的逆过程,
因此pooling也就是下采样,
采样后数据数量减小
下面解释FCN中是如何
实现upsample,FCN做者分为
FCN-32s,FCN-16s,FCN-8s三种
image是原图像,
conv1,conv2..,conv5为卷积操做,
pool1,pool2,..pool5为pool操做
(pool就是使得图片变为原图的1/2),
注意con6-7是最后的卷积层,
最右边一列是upsample后
的end to end结果。
必须说明的是图中nx是指对应的
特征图上采样n倍(即变大n倍),
并非指有n个特征图,
如32x upsampled 中的32x
是图像只变大32倍,
不是有32个上采样图像,
又如2x conv7是
指conv7的特征图变大2倍。
相关文章
相关标签/搜索