Decoders Matter for Semantic Segmentation

Decoders Matter for Semantic Segmentation:Data-Dependent Decoding Enables Flexible Feature Aggregation网络


2019/03/12 Author:Yu Zhangspa

此篇论文被CVPR2019收录,由标题可知:在语义分割中decoder过程一样重要,那么在decoder当中最重要的是什么呢?没错就是上采样upsample。本文作的事情,最主要的就是提出了一种叫作DUpsampling的上采样操做,做者认为目前分割网络广泛采用的双线性插值并非最优的上采样方法,因而探寻一种可让粗糙的卷积网络输出更准确地向上采样的方法。在提出此上采样方法的同时也提出整个分割网络,在VOC数据集上达到了SOTA效果。DUpsampling过程以下图:code

sturecture

输出的特征图每一个点,与CxN的矩阵W进行矩阵相乘,获得1xN这个向量,再将这1xN的向量reshape为2x2xN/4,就至关于把图上采样为原来的两倍。那么关键就在于这个矩阵W,是怎么获得的呢?rem

做者认为分割的label图像并非独立同分布的,其存在结构信息,因此label Y能够几乎没有损失地进行压缩,或者说降维。因而做者就想通常的网络都是将特征图上采样到label大小再作loss,咱们可不能够将labelY进行压缩,而后用本来特征图直接与其计算loss呢。get




首先做者将Y以rxr为size等分红这些块,对于这些rxr大小的块,把他们拉成一个向量v,在这个向量上作一个压缩,再reshape成本来形状,造成压缩后的label图 Y·。对于压缩的方法,做者使用线性预测的方式,将向量乘以一个矩阵P,如上图中第一个公式,那么压缩变为的x若是想再恢复的话就须要乘以P的逆映射矩阵W。这个P及W咱们能够经过在训练集中最小化v与重构出的v·来获得,如第二个公式。Loss由特征图上采样与label算loss变为了用DUpsampling为上采样方法的特征图与label算loss, 如最下面的公式。it

相关文章
相关标签/搜索