CNN中的feature map

 

我的学习CNN的一些笔记,比较基础,整合了其余博客的内容html

 

feature map的理解
在cnn的每一个卷积层,数据都是以三维形式存在的。你能够把它当作许多个二维图片叠在一块儿(像豆腐皮竖直的贴成豆腐块同样),其中每个称为一个feature map。网络

feature map 是怎么生成的?
输入层:在输入层,若是是灰度图片,那就只有一个feature map;若是是彩色图片(RGB),通常就是3个feature map(红绿蓝)学习

[ 下图中三大部分依次是输入RGB图片,卷积核(也称过滤器),卷积结果(输出),* 表明卷积操做,最左部分三片表明3个feature map;  spa

若是是灰色图片(二维),则最左只有一片表明一个feature map,对应的卷积核(过滤器也是二维)].net


其它层:层与层之间会有若干个卷积核(kernel)(也称为过滤器),htm

上一层每一个feature map跟每一个卷积核作卷积,都会产生下一层的一个feature map,有N个卷积核,下层就会产生N个feather map。blog

多个feather map的做用是什么?图片

在卷积神经网络中,咱们但愿用一个网络模拟视觉通路的特性,分层的概念是自底向上构造简单到复杂的神经元。楼主关心的是同一层,那就说说同一层。
咱们但愿构造一组基,这组基可以造成对于一个事物完备的描述,例如描述一我的时咱们经过描述身高/体重/相貌等,在卷积网中也是如此。在同一层,咱们但愿获得对于一张图片多种角度的描述,具体来说就是用多种不一样的卷积核对图像进行卷,获得不一样核(这里的核能够理解为描述)上的响应,做为图像的特征。他们的联系在于造成图像在同一层次不一样基上的描述。get

下层的核主要是一些简单的边缘检测器(也能够理解为生理学上的simple cell)。博客

上层的核主要是一些简单核的叠加(或者用其余词更贴切),能够理解为complex cell。

 

多少个Feature Map?真的很差说,简单问题少,复杂问题多,可是自底向上通常是核的数量在逐渐变多(固然也有例外,如Alexnet),主要靠经验。

 

卷积核的理解

不懂的能够参考下面的博客

https://blog.csdn.net/cheneykl/article/details/79740810

卷积核(过滤器)个数的理解

个人前一篇博客中有写相关内容http://www.javashuo.com/article/p-smzsxmps-bc.html

第L-1层:输入图形通道数=输入图像的层数=过滤器层数(三维坐标空间上是y方向)
L层:输出图像通道数=过滤器个数=第L+1层输入图像层数...(无论输入和过滤层多少层,图像输入与每一个过滤器卷积事后都是一层矩阵,影响输出层数的只有过滤器的个数)

以下图红线所示:该层卷积核的个数,有多少个卷积核,通过卷积就会产生多少个feature map,也就是下图中 `豆腐皮儿`的层数、同时也是下图`豆腐块`的深度(宽度)!!

这个宽度能够手动指定,通常网络越深的地方这个值越大,由于随着网络的加深,feature map的长宽尺寸缩小,本卷积层的每一个map提取的特征越具备表明性(精华部分),因此后一层卷积层须要增长feature map的数量,才能更充分的提取出前一层的特征,通常是成倍增长(不过具体论文会根据实验状况具体设置)!

 

 

参考博文:https://blog.csdn.net/csw19970124/article/details/83376842

相关文章
相关标签/搜索