Selective Kernel Network

senet: https://arxiv.org/abs/1709.01507 sknet: http://arxiv.org/abs/1903.06586网络

TL, DR

Selective Kernel Networks 启发自皮质神经元根据不一样的刺激可动态调节其自身的receptive field, 从而在CNN每个 stage, 增长不一样尺寸 filter 分支。 整体网络结构和 SENet 类似(几乎一致), 相对于大网络, 对小网络的性能提高比较明显.函数

SENet

abstract

卷积神经网络创建在一系列卷积操做之上, 经过层叠卷积操做, 能够逐渐增大感觉野. 卷积操做能够复用空间和通道信息, 但却限制在一个局部感觉野上. 为了促进网络的特征表示能力, 一些工做经过增强空间编码从而提高了网络性能, 如 Inception. SENet 关注点在通道关系上, 提出的 SE-Block, 经过整合通道全局感觉野信息, embedding 通道之间的重要性关系, 关注有用特征, 抑制无用特征.性能

SE-Block 使用 Global Average Pooling 处理该层 feature map获得一个 channel descriptor, 该 descriptor 包含每一个通道特征强度(feature response)信息, 从而使得 CNN 的 底部的 layer能够利用到全局感觉野的信息.学习

network arch

屏幕快照 2018-03-18 上午8.56.38-w918编码

spa

sigmoid 函数3d

$$ \begin{align*} \sigma(x) &= \frac{1}{1+e^{-x}} \ \end{align*} $$blog

逻辑斯谛回归函数ip

$$ \begin{align*} P(Y=1|x) &= \frac{e^{w \cdot x}}{1+e^{w \cdot x}}\ &= \frac{1}{1+e^{-w \cdot x}}\ &=\sigma (w \cdot x)\ P(Y=0|x) &= \frac{1}{1+e^{w \cdot x}} \ &=1 - \sigma (w \cdot x)\ \end{align*} $$ci

Excitation操做为了利用 Squeeze 操做中的聚合的信息, 从而获取不一样 channel 之间的依赖性. gating 函数必须知足两个条件

  1. 首先,它必须是灵活的(特别是,它必须可以学习通道之间的非线性关系),
  2. 其次,它必须学习非互斥关系.

为了知足这些标准,Excitation 选择使用 sigmoid 函数执行 gating mechanism.

SE-Inception Block

屏幕快照 2018-03-18 上午9.17.14-w473

添加 SE Block 的网络的计算量大约提升1%, 参数量提升2%

experiment result

SKNet

与 SENet 相比, 就是每一个 stage 增长了不一样的尺寸大小的 filter的分支, 在作 gating 的时候, sigmoid 函数使用下面函数代替, 用于对不一样尺寸的 filter 给予权重, 从而达到可适应调节感觉野的做用.

experiment result

在大网络结果

在小网络上结果

整体而言, 在小网络上提点比较明显

相关文章
相关标签/搜索