原理
参考:https://www.cnblogs.com/charlotte77/p/7759802.htmlhtml
卷积层:函数
做用:特征提取,减少参数优化
池化层:spa
做用:将卷积层提取的特征中最能反映该特征的特征值取出来htm
Flattern layer和全链接层:blog
做用:前者将前面获得的feature_map这种矩阵拍平,拍平后做为输入输入到全链接层,全链接层输出后使用softmax获得多分类的几率get
下面的机器之心的回答讲解的更细致准确:input
参考:https://www.zhihu.com/question/52668301io
一、cnn的结构为:input——conv——relu——conv——relu——pool——relu——conv——relu——pool——fully connectedclass
而在卷积层中用来提取特征的矩阵叫卷积核(也叫过滤器)
在cnn中离输入层越近的卷积层(筛选出来的特征值)对应的特征越低级,越远越高级。例如筛选的特征从左到右依次为曲线特征,圆形特征。
在全链接层,当使用softmax激活函数时,全链接层的输出是一个n维向量,n是多分类问题的类别数量
模型的训练是经过一个名为反向传播的训练过程来调整过滤器值(或权重)(这里参照西瓜书反向传播部分),cnn也有其余模型训练时用到的损失函数、评价指标,求解参数(过滤器值或权重)时也用的是梯度降低法。
全链接层的解释:
画图解释:https://zhuanlan.zhihu.com/p/23178423
全链接层中的“卷积”操做:https://zhuanlan.zhihu.com/p/33841176
https://www.zhihu.com/question/41037974