卷积原理与操做

  • 卷积(每次卷积完以后+Relu(非线性))

卷积核的深度和输入图像深度一致,有多少个卷积核,就获得多少张特征图,也就是获得的特征图的深度。ide

1个卷积核的卷积过程:3d

stride越小获得的特征越丰富/多,可是考虑效率的问题,stride通常不会设置为1,stride太大会损失不少信心。blog

padding能更好得利用边缘信息,特征图大小计算:class

权重共享,一个特征图,参数数量=filter大小+b,多个特征图=n*(filter+b)大小效率

  • 池化Pooling layer(对特征图压缩)(下采样)(没有w参数)

mean Pooling:池化核中(框选特征),全部值取均值im

max Pooling:池化核中,取最大的值。总结

总结:filter

相关文章
相关标签/搜索