CNN原理+超参数优化

原理

参考:https://www.cnblogs.com/charlotte77/p/7759802.htmlhtml

卷积层:函数

做用:特征提取,减少参数优化

池化层:spa

做用:将卷积层提取的特征中最能反映该特征的特征值取出来htm

Flattern layer和全链接层:blog

做用:前者将前面获得的feature_map这种矩阵拍平,拍平后做为输入输入到全链接层,全链接层输出后使用softmax获得多分类的几率get

下面的机器之心的回答讲解的更细致准确:input

参考:https://www.zhihu.com/question/52668301io

一、cnn的结构为:input——conv——relu——conv——relu——pool——relu——conv——relu——pool——fully connectedclass

而在卷积层中用来提取特征的矩阵叫卷积核(也叫过滤器)

在cnn中离输入层越近的卷积层(筛选出来的特征值)对应的特征越低级,越远越高级。例如筛选的特征从左到右依次为曲线特征,圆形特征。

在全链接层,当使用softmax激活函数时,全链接层的输出是一个n维向量,n是多分类问题的类别数量

模型的训练是经过一个名为反向传播的训练过程来调整过滤器值(或权重)(这里参照西瓜书反向传播部分),cnn也有其余模型训练时用到的损失函数、评价指标,求解参数(过滤器值或权重)时也用的是梯度降低法。

全链接层的解释:

画图解释:https://zhuanlan.zhihu.com/p/23178423

全链接层中的“卷积”操做:https://zhuanlan.zhihu.com/p/33841176

https://www.zhihu.com/question/41037974

 超参数优化

参考:https://www.cnblogs.com/bonelee/p/8528863.html

相关文章
相关标签/搜索