更好理解卷积

为何使用卷积

在这里插入图片描述
对于一个3层隐藏层的全链接来识别手写体图片(28*28),内存消耗1.6MB,对于当时来讲过于庞大(16K内存)web

在这里插入图片描述
借助生物学的概念,注重感兴趣的地方,称之为感觉野,看到的区域也是图片中的一个小块。
在这里插入图片描述网络

提出了卷积神经网络的概念,卷积也就是指局部的相关性。权重减小为原来的1/6。svg

卷积

在这里插入图片描述
在这里插入图片描述

一个共享权值的小滑块再图片上移动,对应位置与滑块的权值相乘,一一获得一个值。
在这里插入图片描述
卷积较比于全链接,它是784个神经元作全链接,须要784个权值,如今3*3卷积只有9个权值。
在这里插入图片描述
对于一张图片,全链接与卷积的区别如上。学习

常规卷积的应用

  • 锐化
  • 模糊
  • 边缘检测

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

CNN做用

在这里插入图片描述
CNN也是使用多个卷积核(自学习),能够对图片生成锐化、模糊、边缘检测的效果。3d

在这里插入图片描述
H、W分别为卷积以后生成的高和宽的大小
在这里插入图片描述
卷积一个kernal(Filier、Weight都是一个概念)指得是对应RGB的三个(3*3)模板xml

一个kernal进行一次卷积指得是3个3*3的模板求完卷积,再将这三个的卷积结果相加获得的值。blog

在这里插入图片描述
对于一个黑白图input(1,28,28)图片

卷积的kernal为(6,1,3,3),最终生成6个feature,其中通道数是1。偏移为[6]。内存

第二次卷积kernal(16,6,3,3),本身随意设置生成feature个数,这里设置成16,其中,对上一层的6个feature作卷积,卷积的kernal的大小为3*3input

在这里插入图片描述
卷积的每一层的特征提取

pytorch实现

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述