senet: https://arxiv.org/abs/1709.01507 sknet: http://arxiv.org/abs/1903.06586网络
Selective Kernel Networks 启发自皮质神经元根据不一样的刺激可动态调节其自身的receptive field, 从而在CNN每个 stage, 增长不一样尺寸 filter 分支。 整体网络结构和 SENet 类似(几乎一致), 相对于大网络, 对小网络的性能提高比较明显.函数
卷积神经网络创建在一系列卷积操做之上, 经过层叠卷积操做, 能够逐渐增大感觉野. 卷积操做能够复用空间和通道信息, 但却限制在一个局部感觉野上. 为了促进网络的特征表示能力, 一些工做经过增强空间编码从而提高了网络性能, 如 Inception. SENet 关注点在通道关系上, 提出的 SE-Block, 经过整合通道全局感觉野信息, embedding 通道之间的重要性关系, 关注有用特征, 抑制无用特征.性能
SE-Block 使用 Global Average Pooling 处理该层 feature map获得一个 channel descriptor, 该 descriptor 包含每一个通道特征强度(feature response)信息, 从而使得 CNN 的 底部的 layer能够利用到全局感觉野的信息.学习
编码
spa
sigmoid 函数3d
$$ \begin{align*} \sigma(x) &= \frac{1}{1+e^{-x}} \ \end{align*} $$blog
逻辑斯谛回归函数ip
$$ \begin{align*} P(Y=1|x) &= \frac{e^{w \cdot x}}{1+e^{w \cdot x}}\ &= \frac{1}{1+e^{-w \cdot x}}\ &=\sigma (w \cdot x)\ P(Y=0|x) &= \frac{1}{1+e^{w \cdot x}} \ &=1 - \sigma (w \cdot x)\ \end{align*} $$ci
Excitation操做为了利用 Squeeze 操做中的聚合的信息, 从而获取不一样 channel 之间的依赖性. gating 函数必须知足两个条件
为了知足这些标准,Excitation 选择使用 sigmoid 函数执行 gating mechanism.
SE-Inception Block

添加 SE Block 的网络的计算量大约提升1%, 参数量提升2%


与 SENet 相比, 就是每一个 stage 增长了不一样的尺寸大小的 filter的分支, 在作 gating 的时候, sigmoid 函数使用下面函数代替, 用于对不一样尺寸的 filter 给予权重, 从而达到可适应调节感觉野的做用.

在大网络结果

在小网络上结果

整体而言, 在小网络上提点比较明显