deepLearnToolbox-master是一个深度学习matlab包,里面含有不少机器学习算法,如卷积神经网络CNN,深度信念网络DBN,自动编码AutoEhtml
ncoder(堆栈SAE,卷积CAE)的做者是 RasmusBerg Palm算法
今天给介绍deepLearnToolbox-master中的CNN部分。网络
该模型使用了mnist的数字mnist_uint8.mat做为训练样本,做为cnn的一个使用样例,每一个样本特征为一个28*28=的向量。app
-让咱们来分析各个函数:
1、Test_example_CNN机器学习
3、cnntrain.m.函数
4、cnnff.m.学习
5、cnnbp.m.测试
5、cnnapplygrads.m.ui
6、cnntest.m.编码
1设置CNN的基本参数规格,如卷积、降采样层的数量,卷积核的大小、降采样的降幅
2 cnnsetup函数 初始化卷积核、偏置等
3 cnntrain函数 训练cnn,把训练数据分红batch,而后调用
3.1 cnnff 完成训练的前向过程,
3.2 cnnbp计算并传递神经网络的error,并计算梯度(权重的修改量)
3.3 cnnapplygrads 把计算出来的梯度加到原始模型上去
4 cnntest函数,测试当前模型的准确率
该模型采用的数据为mnist_uint8.mat,
含有70000个手写数字样本其中60000做为训练样本,10000做为测试样本。
把数据转成相应的格式,并归一化。
该函数你用于初始化CNN的参数。
设置各层的mapsize大小,
初始化卷积层的卷积核、bias
尾部单层感知机的参数设置
bias统一设置为0
权重设置为:-1~1之间的随机数/sqrt(6/(输入神经元数量+输出神经元数量))
对于卷积核权重,输入输出为fan_in, fan_out
fan_out= net.layers{l}.outputmaps * net.layers{l}.kernelsize ^ 2;
%卷积核初始化,1层卷积为16个卷积核,2层卷积一共612=72个卷积核。对于每一个卷积输出featuremap,
%fan_in= 表示该层的一个输出map,所对应的全部卷积核,包含的神经元的总数。125,625
fan_in =numInputmaps * net.layers{l}.kernelsize ^ 2;
fin=125 or 625
fout=1625 or 61225
net.layers{l}.k{i}{j} =(rand(net.layers{l}.kernelsize) - 0.5) * 2 * sqrt(6 / (fan_in + fan_out));
一、卷积降采样的参数初始化
二、尾部单层感知机的参数(权重和偏量)设置:
该函数用于训练CNN。
生成随机序列,每次选取一个batch(50)个样本进行训练。
批训练:计算50个随机样本的梯度,求和以后一次性更新到模型权重中。
在批训练过程当中调用:
Cnnff.m 完成前向过程
Cnnbp.m 完成偏差传导和梯度计算过程
Cnnapplygrads.m把计算出来的梯度加到原始模型上去
一、取得CNN的输入
二、两次卷积核降采样层处理
三、尾部单层感知机的数据处理,须要把subFeatureMap2链接成为一个(4*4)12=192的向量,可是因为采用了50样本批训练的方法,subFeatureMap2被拼合成为一个19250的特征向量fv;
Fv做为单层感知机的输入,全链接的方式获得输出层
该函数实现2部分功能,计算并传递偏差,计算梯度
一、计算偏差和LossFunction
二、计算尾部单层感知机的偏差
三、把单层感知机的输入层featureVector的偏差矩阵,恢复为subFeatureMap2的4*4二维矩阵形式
插播一张图片:
四、偏差在特征提取网络【卷积降采样层】的传播
若是本层是卷积层,它的偏差是从后一层(降采样层)传过来,偏差传播其实是用降采样的反向过程,也就是降采样层的偏差复制为2*2=4份。卷积层的输入是通过sigmoid处理的,因此,从降采样层扩充来的偏差要通过sigmoid求导处理。
若是本层是降采样层,他的偏差是从后一层(卷积层)传过来,偏差传播实际是用卷积的反向过程,也就是卷积层的偏差,反卷积(卷积核转180度)卷积层的偏差,原理参看插图。
五、计算特征抽取层和尾部单层感知机的梯度
该函数完成权重修改,更新模型的功能
更新特征抽取层的权重 weight+bias
更新末尾单层感知机的权重 weight+bias
验证测试样本的准确率