各位看官大人久等啦!我胡汉三又回来辣(不是html
最近由于到期末考试周,再加上老板临时给安排了个任务,其实LeNet-5的复现工做早都搞定了,结果没时间写这个博客,今天总算是抽出时间来把以前的工做简单总结了一下,而后把这个文章简单写了一下。python
由于LeNet-5这篇文章实在是太——长——了,再加上内容稍稍有那么一点点复杂,因此我打算大体把这篇博客分红下面的部分:编程
论文怎么读:由于太多,因此论文里面有些部分能够选择性略过网络
论文要点简析:简单说一下这篇文章中提出了哪些比较有意思的东西,而后提一下这个论文里面有哪些坑app
具体分析与复现:每个部分是怎么回事,应该怎么写代码框架
结果简要说明:对于复现的结果作一个简单的描述机器学习
反思:虽然模型很经典,可是实际上仍是有不少的考虑不周的地方,这些也是后面成熟的模型进行改进的地方ide
在看这篇博客以前,但愿你们能先知足下面的两个前置条件:函数
对卷积神经网络的大体结构和功能有必定的了解,不是完彻底全的小白性能
对Pytorch有初步的使用经验,不须要特别会,但起码应该知道大体有什么功能
LeNet-5这篇论文要有,能够先不读,等到下面讲完怎么读以后再读也没问题
那么废话少说,开始咱们的复现之旅吧(@^▽^@)ノ
顺便一提,由于最近总是在写报告、论文还有文献综述啥的,文章风格有点改不回来了,因此要是感受读着不如之前有意思了,那······凑合读呗,你还能打死我咋的┓( ´∀` )┏
这篇论文的篇幅。。。讲道理当时我看到页码的时候我整我的是拒绝的······而后瞅了一眼introduction部分,发现实际上里面除了介绍他的LeNet-5模型以外,还介绍了如何构建一个完整的文本识别的系统,顺便分析了一下优劣势什么的。也就是说这篇论文里面起码是把两三篇论文放在一块儿发的,赶明儿我也试试这么水论文┓( ´∀` )┏
所以这篇论文算上参考文献一共45页,能够说对于相关领域的论文来讲已是一篇大部头的文章了。固然实际上关于文本识别系统方面的内容咱们能够跳过,由于近年来对于文本识别方面的研究其实比这个里面提到的不管是从精度仍是系统总体性能上讲都好了很多。
那这篇论文首先关于导读部分还有文字识别的基本介绍部分确定是要读的,而后关于LeNet-5的具体结构是什么样的确定也是要读的,最后就是关于他LeNet-5在训练的时候用到的一些“刀剑神域”操做(我怕系统不让我说SAO这个字),是在文章最后的附录里面讲的,因此也是要看的。把这些整合一下,对应的页码差很少是下面的样子啦:
1-5:文本识别以及梯度降低简介
5-9:LeNet-5结构介绍
9-11:数据集以及训练结果分析
40-45:附录以及参考文献
基本上上面的这些内容看完,这篇文章里面关于LeNet-5的内容就能全都看完了,其余的地方若是感兴趣的话本身去看啦,我就无论了哈(滑稽.jpg
在看下面的内容以前,我建议先把上面我说到的那些页码里面的内容先大体浏览一下,要否则下面我写的东西你可能不太清楚我在说什么,因此你们加把劲,先把论文读一下呗。(原来我就是加把劲骑士(大雾)
这篇论文的东西确定算是特别特别早了,毕竟1998年的老古董嘛(那我岂不是更老······话说我好像暴露年龄了欸······)。实际上这里面有一些思想已经比较超前了,虽然受当时的理论以及编程思路的限制致使实现得并很差,可是从思路方面上我以为绝对是有学习的价值的,因此下面咱们就将这些内容简单来讲一说呗:
首先是关于全链接网络为啥很差。在文章中主要提到下面的两个问题:
全链接网络并无平移不变性和旋转不变性。平移不变性和旋转不变性,通俗来说就是说,若是给你一张图上面有一个东西要识别,对于一个具备平移不变性和旋转不变性的系统来讲,无论这张图上的这个东西如何作平移和旋转变换,系统都能把这个东西辨识出来。具体为何全链接网络不存在平移不变性和旋转不变性,能够参考一下我以前一直在推荐的《Deep Learning with Pytorch》这本书,里面讲的也算是清晰易懂吧,这里就不展开说了;
全链接网络因为要把图片展开变成一个行/列向量进行处理,这会致使图片像素之间原有的拓扑结构遭到破坏,毕竟对于图片来说,一个像素和他周围的像素之间的关系确定是很密切的嘛,要是不密切插值不就作不了了么┓( ´∀` )┏
在卷积神经网络结构方面,也提出了下面的有意思的东西:
池化层:前面提到过全链接网络不存在平移不变性,而从原理上讲,卷积层是平移不变的。为了让整个辨识系统的平移不变性更加健壮,能够引入池化层将识别出的特征的具体位置再一次模糊化,从而达到系统的健壮性的目的。嘛······这个想法我觉的挺好并且挺超前的,然而,LeCun大佬在这里的池化用的是平均池化······至于这有什么问题,emmmmm,等到后面的反思里面再说吧,这里先和你们提个醒,若是有时间的话能够停下来先想想为啥平均池化为啥很差。
特殊设计的卷积层:在整个网络中间存在一个贼恶心的层,对你没看错,就是贼恶心。固然啦,这个恶心是指的复现层面的,从思路上讲仍是有一些学习意义的。这个卷积层不像其余的卷积层,使用前面一层输出的全部的特征图来进行卷积,他是挑着来的,这和个人上一篇的LeNet-1989提到的那个差很少。这一层的设计思想在于:1)控制参数数量防止过拟合(这其实就有点像是彻底肯定的dropout,而真正的dropout是在好几年之后才提出的,是否是很超前吖);2)破坏对称性;3)强制让卷积核学习到不一样的特征。从第一条来看,若是作到随机的话那和dropout就差很少了;第二条的话我没太看明白,若是有大佬可以指点一下的话那就太好了;第三条实际上就是体现了想要尽量减小冗余卷积核从而减小参数数量的思想,至关于指明了超参数的一个设置思路。
RBF层与损失函数:经过向量距离来表征损失,仔细分析公式的话,你会发现,他使用的这个 层加上设计的损失函数,和咱们如今在分类问题中经常使用的交叉熵函数(CrossEntropyLoss)其实已经很是接近了,在此以前你们使用的都是那种one-hot或者基于位置编码的损失函数,从原理性上讲已是一个很大的进步了······虽然RBF自己由于计算向量距离的缘故,实际上把以前的平移不变性给破坏了······不过起码从思路上讲已经好不少了。
特殊的激活函数:这个在前一篇LeNet-1989已经提到过了,这里就不展开说了,有兴趣能够看一下论文的附录部分还有个人上一篇关于LeNet-1989的介绍。
初始化方法:这个也在以前一篇的LeNet-1989提到过了,你们就到以前的那一篇瞅瞅(顺便给我增长点阅读量,滑稽.jpg
以上就是论文里面一些比较有意思而且有价值的思想和内容,固然了这里只是针对那些刚刚简单看过一遍论文的小伙伴们看的,是想让你们看完论文之后对一些可能一晃就溜过去的内容作个提醒,因此讲得也很简单。若是上面的内容确实是有没注意到的,那就再回去把这些内容找到看一看;若是上面的内容都注意到了,哇那小伙伴你真的是棒!接下来就跟着我继续往下看,把一些很重要的地方进行一些更细致的研读吧(⁎˃ᴗ˂⁎)
如今咱们假设你们已经把论文好好地看过一遍了,可是对于像我同样的新手小白来讲,有一些内容可能看起来很简单,可是实际操做起来彻底不知道该怎么搞,因此这里就和你们一块儿来一点一点扣吧。
首先先介绍一下我复现的时候使用的大体软件和硬件好了:python: 3.6.x,pytorch: 1.4.1, GPU: 1080Ti,window10和Ubuntu都能运行,只须要把文件路径改为对应操做系统的格式就行
在开始写代码以前,一样的,把咱们须要的模块啥的,一股脑先都装进来,省得后面有什么东西给忘记了:
import torch import torch.nn as nn import torch.optim as optim from torchvision import datasets from torchvision import transforms as T import matplotlib.pyplot as plt import numpy as np
接下来咱们开始介绍复现过程,论文的描述是先说的网络结构,而后再讲的数据集,可是其实从逻辑上讲,咱们先搞清楚数据是什么个鬼样子,才知道网络应该怎么设计嘛。因此接下来咱们先介绍数据集的处理,再介绍网络结构。
这里使用的就是很是经典的MNIST数据集啦,这个数据集就很好找了,毕竟处处都是,并且也不是很大,拿来练手是再合适不过的了(柿子确定是挑软的捏,饭确定专挑软的吃,滑稽.jpg)。通常来讲为了让训练效果更好,都须要对数据进行一些预处理,使数据的分布在一个合适的范围内,让训练过程更加高效准确。
在介绍怎么处理数据以前,仍是先简单介绍一下这个数据集的特色吧。MNIST数据集中的图片的尺寸为[28, 28],而且都是单通道的灰度图,也就是里面的字都是黑白的。灰度图的像素范围为[0, 255],而且全都是整数。
因为在这个网络结构中使用的激活函数都是和Tanh或者Sigmoid函数十分接近的,为了能让训练过程整体上都在激活函数的线性区中,须要将数据的像素数值分布从以前的[0, 255]转换成均值为0,方差为1的一个近似区间。为了达到这个效果,论文提出能够把图片的像素值范围转换为[-0.1, 1.175],也就是说背景的像素值均为-0.1,有字的最亮的像素值为1.175,这样全部图片的像素值就近似在均值为0,方差为1的范围内了。
除此以外,论文还提到为了让以后的最后一层的感觉野可以感觉到整个数字,须要将这个图片用背景颜色进行“填充”。注意这里就有两个须要注意的地方:
填充:也就是说咱们不能简单地用PIL库或者是opencv库中的resize函数,由于这是将图片的各部分进行等比例的插值缩放,而填充的实际含义和卷积层的padding十分接近,所以为了方便起见咱们就直接在卷积操做中用padding就行了,能省事就省点事。
用背景填充:在卷积进行padding的时候,默认是使用0进行填充,而这和咱们的实际的要求是不同的,所以咱们须要对卷积的padding模式进行调整,这个等到到时候讲卷积层的时候再详细说好了。
所以考虑到上面的因素,咱们的图片处理器应该长下面的这个鬼样子:
picProcessor = T.Compose([ T.ToTensor(), T.Normalize( mean = [0.1 / 1.275], std = [1.0 / 1.275] ), ])
具体里面的参数都是什么意思,我已经在之前的博客里面提到过了,因此这里就不赘述了哦。图片通过这个处理以后,就变成了尺寸为[28, 28],像素值范围[-0.1, 1.175]的tensor了,而后如何填充成一个[32, 32]的图片,到后面的卷积层的部分再和你们慢慢说。
数据处理完,就加载一下吧,这里和以前的LeNet-1989的代码基本上就同样的吖,就很少解释了。
dataPath = "F:\\Code_Set\\Python\\PaperExp\\DataSetForPaper\\" #在使用的时候请改为本身实际的MNIST数据集路径 mnistTrain = datasets.MNIST(dataPath, train = True, download = False, transform = picProcessor) #记得若是第一次用的话把download参数改为True mnistTest = datasets.MNIST(dataPath, train = False, download = False, transform = picProcessor)
一样的,若是有条件的话,你们仍是在GPU上训练吧,由于这个网络结构涉及到一些比较复杂的中间运算,若是用CPU训练的话那是真的慢,反正我在个人i7-7700上面训练,完整训练下来大概一天多?用GPU就几个小时,因此若是实在没条件的话,就跟着我把代码敲一遍,看懂啥意思就好了,这个我真的没办法┓( ´∀` )┏
device = torch.device("cuda:0") if torch.cuda.is_available() else torch.device("cpu")
LeNet-5的结构其实仍是蛮经典的,不过在这里仍是再为你们截一下图,而后慢慢解释解释每层是怎么回事吧。
由于这里面的东西其实蛮多的,我怕像上一篇同样在最后才把代码一会儿放出来会让人记不住前面讲过啥,因此这部分就每个结构下面直接跟上对应的代码好了。
咱们的神经网络类的名字就定义为LeNet-5好了,大体定义方法以下:
class LeNet-5(nn.Module): def __init__(self): super(LeNet-5, self).__init__() self.C1 = ... self.S2 = ... self.C3 = ... self.S4 = ... self.C5 = ... self.F6 = ... self.Output = ... self.act = ... 初始化部分... def forward(self, x): ......
那接下来咱们就一个部分一个部分开始看吧。
C1层就是一个很简单的咱们日常最多见的卷积层,而后咱们分析一下这一层须要的参数以及输入输出的尺寸。
输入尺寸:在不考虑batch_size的状况下,论文中提到的输入图片的尺寸应该是[c, h, w] = [1, 32, 32],可是前面提到,咱们为了避免在图片处理中花费太大功夫进行图片的填充,须要把图片的填充工做放在卷积操做的padding中。从尺寸去计算的话,padding的维度应该是2,这样就能把实际图片的高宽尺寸从[28, 28]填充为[32, 32]。可是padding的默认参数是插入0,并非用背景值 -0.1 进行填充,因此咱们须要在定义卷积核的时候,将padding_mode这个参数设置为 ’replicate‘,这个参数的意思是,进行padding的时候,会把周围的背景值进行复制赋给padding的维度。
输出尺寸:在不考虑batch_size的状况下,输出的特征图的尺寸应该是[c, h, w] = [6, 28, 28]
参数:从输入尺寸还有输出尺寸并结合论文的描述上看,使用的卷积参数应该以下:
将上面的内容整合起来的话,C1层的构造代码应该是下面的样子:
self.C1 = nn.Conv2d(1, 6, 5, padding = 2, padding_mode = 'replicate')
在这一层的后面没有激活函数哟,至少论文里没有提到。
S2层以及以后全部的以S开头的层全都是论文里面提到的采样层,也就是咱们如今常说的池化层。论文中提到使用的池化层是平均池化,池化层的概念和运做原理,你们仍是去查一下其余的资料看一看吧,要否则这一篇篇幅就太长了······可是须要注意的是,这里使用的平均池化和实际咱们如今常见的平均池化是不同的。常见的池化层是,直接将对应的位置的值求个平均值,可是这里很恶心,这里是有权重和偏置的平均求和,差很少就是下面这个样子:
这俩参数w和b仍是可训练参数,每个特征图用的还不是同一个参数,真的我看到这里是拒绝的,明明CNN里面平均池化就不适合用,他还把平均池化搞得这么复杂,吔屎啦你(╯‵□′)╯︵┻━┻
可是本身做的死,跪着也要做完,因此你们就一块儿跟着我吔屎吧······
在Pytorch里,除了可使用框架提供的API里面的池化层以外,咱们也能够去自定义一个类来实现咱们本身须要的功能。固然若是想要这个自定义的类可以和框架提供的类同样运行的话,须要让这个类继承torch.nn.Module这个类,只有这样咱们的自定义类才有运算、自动求导等正常功能。而且相关的功能的实现,须要咱们本身重写forward方法,这样在调用本身写的类的对象的时候,系统就会经过内置的__call__方法来调用这个forward方法,从而实现咱们想要的功能。
下面咱们构建一个类Subsampling来实现咱们的池化层:
class Subsampling(nn.Module)
首先看一下咱们的初始化函数:
def __init__(self, in_channel): super(Subsampling, self).__init__() self.pool = nn.AvgPool2d(2) self.in_channel = in_channel F_in = 4 * self.in_channel self.weight = nn.Parameter(torch.rand(self.in_channel) * 4.8 / F_in - 2.4 / F_in, requires_grad=True) self.bias = nn.Parameter(torch.rand(self.in_channel), requires_grad=True)
这个函数中的参数含义其实一目了然,而且其中也有一些咱们在上一篇的LeNet-1989中提到过的让人感受熟悉的内容,可是······这个多出来的Parameter是什么鬼啦(╯‵□′)╯︵┻━┻。别急别急,咱们来一点点的看一下吧。
对于父类的初始化函数调用没什么好说的。咱们先来看下面的这一行:
self.pool = nn.AvgPool2d(2)
咱们之因此定义 self.pool 这个成员,是由于从上面咱们的那个池化层的公式上来看,咱们彻底能够先对咱们要求解的区域先求一个平均池化,再对这个结果作一个线性处理,从数学上是彻底等价的,而且这也省得咱们本身实现相加功能了,岂不美哉?(脑补一下三国名场景)。而且在论文中指定的池化层的核的尺寸是[2, 2],因此有了上面的定义方法。
而后是下面的和那个Parameter相关的代码:
self.weight = nn.Parameter(torch.rand(self.in_channel) * 4.8 / F_in - 2.4 / F_in, requires_grad=True) self.bias = nn.Parameter(torch.rand(self.in_channel), requires_grad=True)
从参数的名称上看咱们很容易知道weight和bias就是咱们的可学习权重和偏置,可是为何咱们须要定义一个Parameter,而不是像之前同样只使用一个tensor完事?这里就要简单介绍一下nn.Module这个类了。在这个类中有三个比较重要的字典:
_parameters:模型中的参数,可求导
_modules:模型中的子模块,就相似于在自定义的网络中加入的Conv2d()等
_buffer:模型中的buffer,在其中的内容是不可自动求导的,经常用来存一些常量,而且在以后C3层的构造中要用到。
当咱们向一个自定义的模型类中加入一些自定义的参数的时候(好比上面的weight),咱们必须将这个参数定义为Parameter,这样在进行self.weight = nn.Parameter(...)这个操做的时候,pytorch会将这个参数注册到咱们上面提到的字典中,这样在后续的反向传播过程当中,这个参数才会被计算梯度。固然这里只是十分简单地说一下,详细的内容的话推荐你们看两篇博客,连接放在下面:
https://blog.csdn.net/u012436149/article/details/78281553
http://www.javashuo.com/article/p-gfbtymgr-hw.html
而后代码里面的初始化方法什么的,在前一篇LeNet-1989里面已经提到过了,就很少说了。
接下来是forward函数的实现:
def forward(self, x): x = self.pool(x) outs = [] #对每个channel的特征图进行池化,结果存储在这里 for channel in range(self.in_channel): out = x[:, channel] * self.weight[channel] + self.bias[channel] #这一步计算每个channel的池化结果[batch_size, height, weight] outs.append(out.unsqueeze(1)) #把channel的维度加进去[batch_size, channel, height, weight] return torch.cat(outs, dim = 1)
在这里比较须要注意的部分是for函数以及return部分的内容,咱们一样一块一块展开进行分析:
for channel in range(self.in_channel): out = x[:, channel] * self.weight[channel] + self.bias[channel] outs.append(out.unsqueeze(1))
前面提到过,咱们在每个前面输出的特征图上计算平均池化的时候,使用的可训练参数都是不同的,都须要各自进行训练,所以咱们须要作的是把每个channel的特征图都取出来,而后作一个池化操做,全部的channel都池化完毕以后咱们再拼回去。
假设咱们的输入的尺寸为x = [batch_size, c, h, w],咱们的操做步骤应该是这样的:
那么咱们须要作的是把每个channel的特征图取出来,也就是x[:, channel] = [batch_size, h, w];
对取出来的特征图作池化:out = x[:, channel] * self.weight[channel] + self.bias[channel]
把特征图先放在一块儿(拼接是在return里面作的,这里只是先放在一块儿),为了让咱们的图可以拼起来,须要把池化的输出结果升维,把channel的那一维加进去。以前咱们提到out的维度是[batch_size, h, w],channel应该加在第一维上,也就是outs.append(out.unsqueeze(1))
unsqueeze操做也在之前的博客中有写过,就很少说了。
接下来是return的部分
return torch.cat(outs, dim=1)
在这里出现了一个新的函数cat,这个函数的实际做用是,将给定的tensor的列表,沿着dim指定的维度进行拼接,这样咱们从新获得的返回值的维度就回复为[batch_size, c, h, w]了。具体的函数用法能够先看看官方文档,而后再本身实践一下,不是很难理解的。
至此Subsampling类就构建完毕了,每一个部分都搞清楚之后,咱们把类里面全部的代码都拼到一块儿看一下吧:
class Subsampling(nn.Module): def __init__(self, in_channel): super(Subsampling, self).__init__() self.pool = nn.AvgPool2d(2) self.in_channel = in_channel F_in = 4 * self.in_channel self.weight = nn.Parameter(torch.rand(self.in_channel) * 4.8 / F_in - 2.4 / F_in, requires_grad = True) self.bias = nn.Parameter(torch.rand(self.in_channel), requires_grad = True) def forward(self, x): x = self.pool(x) outs = [] #对每个channel的特征图进行池化,结果存储在这里 for channel in range(self.in_channel): out = x[:, channel] * self.weight[channel] + self.bias[channel] #这一步计算每个channel的池化结果[batch_size, height, weight] outs.append(out.unsqueeze(1)) #把channel的维度加进去[batch_size, channel, height, weight] return torch.cat(outs, dim = 1)
每个小部分都搞清楚之后再来看这个总体,是否是就清楚多啦!若是还有地方不太明白的话,能够把这部分代码多读几遍,而后多查一查官方的文档,这个里面基本是没有什么特别难的地方的。
这里是定义一个这样的池化层的类,用于复用,由于后面的S4的原理和这个是一致的,只是输入输出的维度不太同样。对于S2来讲,先不考虑batch_size,因为从C1输出的尺寸为[6, 28, 28],所以咱们进行定义时是按照以下方法定义的:
self.S2 = Subsampling(6)
而且从池化层的核的尺寸来看,获得的池化的输出最终的尺寸为[6, 14, 14]。
须要注意的是,在这一层后面有一个激活函数,但这里有一个小小的问题,论文里写的激活函数是Sigmoid,但我用的不是,具体缘由后面再说。
好家伙刚送走一个麻烦的家伙,如今又来一个。这部分就是以前在 “论文要点简析” 部分提到的花里胡哨的特殊设计的卷积层啦。讲道理写到如今我都感受我腱鞘炎要犯了······
在介绍这部分代码以前,仍是先对整个结构的输入输出以及基本的参数进行简单的分析:
输入尺寸:在前一层S2的输出尺寸为[6, 14, 14]
输出尺寸:要求的输出尺寸是[16, 10, 10]
卷积层参数:要求的卷积核尺寸是[5, 5],没有padding填充,因此在这一层的基本的参数是下面这样的:
可是实际上不能只是这样简单的定义一个卷积层,由于通常的卷积是在输入的所有特征图上进行卷积操做,可是在这个论文里的C3层很 “刀剑神域”,他是每个输出的特征图都只挑了输入的特征图里的一小部分进行卷积操做,具体的映射关系看下面啦:
具体来讲,这张图的含义是这个样子的:
全部的特征图的标号都是从零开始的,输出特征图16个channel,也就是0-15,输入特征图6个channel,也就是0-5
竖着看,0号输出特征图,在0、一、2号输入特征图上打了X,也就是说,0号输出特征图是使用0、一、2号输入特征图,在这个图像上进行卷积操做
其余的输出特征图同理
所以咱们须要提早先定义一个用来表示映射关系的表,而后从表里面挑出来输入特征图进行卷积操做,最后再把获得的输出特征图拼起来,实际上听起来和刚刚的Subsampling类的基本逻辑差很少,就是多了一个映射关系而已。因此下面咱们来构造一下这个类吧:
class MapConv(nn.Module):
一样的,咱们先从构造方法开始一点点的看这个类。
def __init__(self, in_channel, out_channel, kernel_size = 5): super(MapConv, self).__init__() #定义特征图的映射方式 mapInfo = [[1, 0, 0, 0, 1, 1, 1, 0, 0, 1, 1, 1, 1, 0, 1, 1], [1, 1, 0, 0, 0, 1, 1, 1, 0, 0, 1, 1, 1, 1, 0, 1], [1, 1, 1, 0, 0, 0, 1, 1, 1, 0, 0, 1, 0, 1, 1, 1], [0, 1, 1, 1, 0, 0, 1, 1, 1, 1, 0, 0, 1, 0, 1, 1], [0, 0, 1, 1, 1, 0, 0, 1, 1, 1, 1, 0, 1, 1, 0, 1], [0, 0, 0, 1, 1, 1, 0, 0, 1, 1, 1, 1, 0, 1, 1, 1]] mapInfo = torch.tensor(mapInfo, dtype = torch.long) self.register_buffer("mapInfo", mapInfo) #在Module中的buffer中的参数是不会被求梯度的 self.in_channel = in_channel self.out_channel = out_channel self.convs = {} #将每个定义的卷积层都放进这个字典 #对每个新创建的卷积层都进行注册,使其真正成为模块而且方便调用 for i in range(self.out_channel): conv = nn.Conv2d(mapInfo[:, i].sum().item(), 1, kernel_size) convName = "conv{}".format(i) self.convs[convName] = conv self.add_module(convName, conv)
这个里面就用到了咱们以前提到的在Module里面重要的三个字典中的剩下两个,可能对于萌新小伙伴来讲,这段代码初看起来真的复杂地要死,因此这里咱们来一点点地解读这个函数。
首先,对于调用父类进行初始化,而后定义咱们的映射信息这些部分咱们就不看了,没啥看头,重点是咱们来看一下下面这一行代码:
self.register_buffer("mapInfo", mapInfo)
在前面说三大字典的时候咱们提到过,在Module的_buffer中的参数是不会被求导的,能够当作是常量。可是若是直接定义一个量放在Module里面的话,他实际上并无被放在_buffer中,所以咱们须要调用从Module类中继承获得的register_buffer方法,来将咱们定义的mapInfo强制注册到_buffer这个字典中。
接下来比较重要的是下面的for循环部分:
for i in range(self.out_channel): conv = nn.Conv2d(mapInfo[:, i].sum().item(), 1, kernel_size) convName = "conv{}".format(i) self.convs[convName] = conv self.add_module(convName, conv)
为何不能像以前那样一个一个定义卷积层呢?很简单,由于这里若是一个一个作的话,要本身定义16个卷积层,并且到写forward函数中,还要至少写16次输出······反正我是写不来,若是有铁头娃想这么写的话能够去试一下,那滋味必定是酸爽得要死┓( ´∀` )┏
首先是关于每个单独的卷积层的定义部分:
conv = nn.Conv2d(mapInfo[:, i].sum().item(), 1, kernel_size)
前面咱们提到,C3卷积层中的每个特征图都是从前面的输入里面挑出几个来作卷积的,而且讲那个映射图的时候说过要一列一列地读,也就是说卷积层的输入的通道数in_channels是由mapInfo里面每一列有几个 “1”(X)决定的。
接下来是整个循环的剩余部分:
convName = "conv{}".format(i) self.convs[convName] = conv self.add_module(convName, conv)
这部分看起来稍稍有一点复杂,但实际上逻辑仍是蛮简单的。在咱们自定义的Module的子类中,若是里面有其余的Module子类做为成员(好比Conv2d),那么框架会将这个子类的实例化对象的对象名做为key,实际对象做为value注册到_module中,可是因为这里咱们使用的是循环,因此卷积层的对象名就只有conv一个。
为了解决这个问题,咱们能够自行定义一个字典convs,而后将自行定义的convName做为key,实际对象做为value,放到这个自定义的字典里面。可是放到这个字典仍是没有被注册进_module里面,所以咱们须要用从Module类中继承的add_module()方法,将(convName,conv)做为键值对注册到字典里面,这样咱们才能在forward方法中,直接调用convs字典中的内容用来进行卷积计算。详细的关于这部分的说明仍是参考一下我在上面提到的两个博客的连接。
解释完这个函数以后,接下来是forward函数:
def forward(self, x): outs = [] #对每个卷积层经过映射来计算卷积,结果存储在这里 for i in range(self.out_channel): mapIdx = self.mapInfo[:, i].nonzero().squeeze() convInput = x.index_select(1, mapIdx) convOutput = self.convs['conv{}'.format(i)](convInput) outs.append(convOutput) return torch.cat(outs, dim = 1)
咱们仍是直接来看for循环里面的部分,其实这部分若是是有numpy基础的人会以为很简单,可是毕竟这是面向小白和萌新的博客,因此就稍微听我啰嗦一下吧。
因为咱们在看mapInfo的时候是按列看的,也就是说为了取到每个输出特征图对应的输入特征图,咱们应该把mapInfo每一列的非零元素的下标取出来,也就是mapInfo[:, i].nonzero()。nonzero这个函数的返回值是调用这个函数的tensor里面的,全部非零元素的下标,而且每个非零点下标自成一维。举个例子的话,对mapInfo的第0列,调用nonzero的结果应该是:
[[0], [1], [2]],shape:[3, 1]
之因此要在后面加一个squeeze,是由于后续的index_select函数,这个操做要求要求后面对应的下标序列必须是一个一维的,也就是说须要把[[0], [1], [2]]变成[0, 1, 2],从shape:[3, 1]变成shape:[3],所以须要一个squeeze操做进行压缩。
接下来就是刚刚才提到的index_select操做,这个函数其实是下面这个样子:
index_select(dim, index)
还有一些其余参数就不列出来了,这个函数的功能是,在指定的dim维度上,根据index指定的索引,将对应的全部元素进行一个返回。
对于咱们编写的函数来讲,x的shape是[batch_size, c, h, w],而咱们须要从里面找到的是从mapInfo中找到的全部非零的channel,也就是说咱们须要指定dim=1,也就是convInput = x.index_select(1, mapIdx)
剩下的内容就和以前介绍的Subsampling的内容差很少了,一样的对于每一组输入获得一组卷积,而后最后把全部卷积结果拼起来。
那如今咱们把这个类的完整的代码放在一块儿好啦:
class MapConv(nn.Module): def __init__(self, in_channel, out_channel, kernel_size = 5): super(MapConv, self).__init__() #定义特征图的映射方式 mapInfo = [[1, 0, 0, 0, 1, 1, 1, 0, 0, 1, 1, 1, 1, 0, 1, 1], [1, 1, 0, 0, 0, 1, 1, 1, 0, 0, 1, 1, 1, 1, 0, 1], [1, 1, 1, 0, 0, 0, 1, 1, 1, 0, 0, 1, 0, 1, 1, 1], [0, 1, 1, 1, 0, 0, 1, 1, 1, 1, 0, 0, 1, 0, 1, 1], [0, 0, 1, 1, 1, 0, 0, 1, 1, 1, 1, 0, 1, 1, 0, 1], [0, 0, 0, 1, 1, 1, 0, 0, 1, 1, 1, 1, 0, 1, 1, 1]] mapInfo = torch.tensor(mapInfo, dtype = torch.long) self.register_buffer("mapInfo", mapInfo) #在Module中的buffer中的参数是不会被求梯度的 self.in_channel = in_channel self.out_channel = out_channel self.convs = {} #将每个定义的卷积层都放进这个字典 #对每个新创建的卷积层都进行注册,使其真正成为模块而且方便调用 for i in range(self.out_channel): conv = nn.Conv2d(mapInfo[:, i].sum().item(), 1, kernel_size) convName = "conv{}".format(i) self.convs[convName] = conv self.add_module(convName, conv) def forward(self, x): outs = [] #对每个卷积层经过映射来计算卷积,结果存储在这里 for i in range(self.out_channel): mapIdx = self.mapInfo[:, i].nonzero().squeeze() convInput = x.index_select(1, mapIdx) convOutput = self.convs['conv{}'.format(i)](convInput) outs.append(convOutput) return torch.cat(outs, dim = 1)
考虑到咱们在开头提到的输入输出尺寸以及参数,最后咱们应该作的定义以下所示:
self.C3 = MapConv(6, 16, 5)
和C1同样,这一层的后面也是没有激活函数的。
这个就很简单啦,就是把咱们以前定义的Subsampling类拿过来用就好了,这里就说一下输入输出的尺寸还有参数好啦:
输入尺寸:C3的输出:[16, 10, 10]
输出尺寸:根据池化的核的大小,尺寸应该为[16, 5, 5]
参数:从输入的通道数判断,in_channel = 16
写出来的话应该是:
self.S4 = Subsampling(16)
这一层后面有激活函数,出现的问题和S2层同样,缘由以后说
这个也好简单哟啊哈哈哈哈哈,再复杂下去我可能就要被逼疯了。
和C1层同样,这里是一个简单的卷积层,咱们来分析一下输入输出尺寸以及定义参数:
输入尺寸:[16, 5, 5]
输出尺寸:[120, 1, 1]
参数:
写出来的话应该是这样的:
self.C5 = nn.Conv2d(16, 120, 5)
这里一样没有激活函数
这个也好简单啊哈哈哈哈哈(喂?120吗,这里有个疯子麻烦大家来处理一下)
这里是一个简单的线性全链接层,咱们看到上一层的输入尺寸为[120, 1, 1],而线性层在不考虑batch_size的时候,要求输入维度不能这么多,这就须要用到view函数进行维度的重组,固然啦咱们这一部分能够放到forward函数里面,这里咱们就直接定义一个线性层就好啦:
self.F6 = nn.Linear(120, 84)
这里有一个激活函数,使用的就是和以前的LeNet-1989同样的:
终于要到最后了,个人妈啊,除了本科毕设我仍是头一第二天常写东西写这么多的,可把我累坏了。原本还想着最后一层能让人歇歇,结果发现最后一层虽然逻辑很简单,可是从代码行数来看真是恶心得一匹,由于里面涉及到一些数字编码的问题。总之咱们先往下看一看吧。
这一层的操做也是“刀剑神域” 得不得了,论文在设计这一层的时候实际上至关因而在作一个特征匹配的工做。论文是将0-9这十个数字的像素编码提取出来,而后将这个像素编码展开造成一个向量。在F6层咱们知道输出的向量的尺寸是[84],这个Output层的任务,就是求解F6层输出向量,和0-9的每个展开成行向量的像素编码求一个平方和的距离,保证这个是一个正值。从结果上讲,若是这个距离是0,那就说明输出向量和该数字对应的行向量彻底匹配。距离越小证实越接近,也就是几率越大;距离越大就证实越远离,也就是几率越低。
可能只是这么说有一点点不太好理解,咱们来举个例子说明也许会更容易说明一些。咱们先来看一下 “1”这个数字的编码大概长什么样子。为了让你们看得比较清楚,原本应该是黑色是+1,白色是-1,我这边就写成黑色是1,白色是0好了。
[0, 0, 0, 1, 1, 0, 0], [0, 0, 1, 1, 1, 0, 0], [0, 1, 1, 1, 1, 0, 0], [0, 0, 0, 1, 1, 0, 0], [0, 0, 0, 1, 1, 0, 0], [0, 0, 0, 1, 1, 0, 0], [0, 0, 0, 1, 1, 0, 0], [0, 0, 0, 1, 1, 0, 0], [0, 0, 0, 1, 1, 0, 0], [1, 1, 1, 1, 1, 1, 1], [0, 0, 0, 0, 0, 0, 0], [0, 0, 0, 0, 0, 0, 0]
仔细看一下里面是 1 的部分,是否是拼起来就像一个印刷体的数字 “1”,固然了你能够把这个矩阵用opencv、PIL或者matplotlib读取而后画出来,确实是印刷体的“1”。而后把它展开造成一个行向量,就是咱们用来进行识别的基准模式了。
而后对于这一层的输出,使用的距离函数是下面的样子:
实际就是距离嘛,只不过就是没有开根号而已。
在这层中须要注意的就只有一个点,那就是数字的行向量组成的这个矩阵是固定死的,也就是说和以前的MapConv层中的mapInfo同样是不可训练的常量。
由于这一部分只是代码比较多而已,可是实际上逻辑上很简单,因此这里就不讲解了,直接上代码:
_zero = [-1, +1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, +1, +1, +1, -1, -1] + \ [-1, +1, +1, -1, +1, +1, -1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [-1, +1, +1, -1, +1, +1, -1] + \ [-1, -1, +1, +1, +1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] _one = [-1, -1, -1, +1, +1, -1, -1] + \ [-1, -1, +1, +1, +1, -1, -1] + \ [-1, +1, +1, +1, +1, -1, -1] + \ [-1, -1, -1, +1, +1, -1, -1] + \ [-1, -1, -1, +1, +1, -1, -1] + \ [-1, -1, -1, +1, +1, -1, -1] + \ [-1, -1, -1, +1, +1, -1, -1] + \ [-1, -1, -1, +1, +1, -1, -1] + \ [-1, -1, -1, +1, +1, -1, -1] + \ [-1, +1, +1, +1, +1, +1, +1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] _two = [-1, +1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, +1, +1, +1, +1, +1, -1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, -1, -1, -1, -1, +1, +1] + \ [-1, -1, -1, -1, +1, +1, -1] + \ [-1, -1, +1, +1, +1, -1, -1] + \ [-1, +1, +1, -1, -1, -1, -1] + \ [+1, +1, -1, -1, -1, -1, -1] + \ [+1, +1, +1, +1, +1, +1, +1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] _three = [+1, +1, +1, +1, +1, +1, +1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [-1, -1, -1, -1, +1, +1, -1] + \ [-1, -1, -1, +1, +1, -1, -1] + \ [-1, -1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [-1, +1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] _four = [-1, +1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, +1, +1, -1, -1, +1, +1] + \ [-1, +1, +1, -1, -1, +1, +1] + \ [+1, +1, +1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, +1, +1, +1] + \ [-1, +1, +1, +1, +1, +1, +1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [-1, -1, -1, -1, -1, +1, +1] _five = [-1, +1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [+1, +1, +1, +1, +1, +1, +1] + \ [+1, +1, -1, -1, -1, -1, -1] + \ [+1, +1, -1, -1, -1, -1, -1] + \ [-1, +1, +1, +1, +1, -1, -1] + \ [-1, -1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [-1, +1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] _six = [-1, -1, +1, +1, +1, +1, -1] + \ [-1, +1, +1, -1, -1, -1, -1] + \ [+1, +1, -1, -1, -1, -1, -1] + \ [+1, +1, -1, -1, -1, -1, -1] + \ [+1, +1, +1, +1, +1, +1, -1] + \ [+1, +1, +1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, +1, -1, -1, +1, +1] + \ [-1, +1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] _seven = [+1, +1, +1, +1, +1, +1, +1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [-1, -1, -1, -1, +1, +1, -1] + \ [-1, -1, -1, +1, +1, -1, -1] + \ [-1, -1, -1, +1, +1, -1, -1] + \ [-1, -1, +1, +1, -1, -1, -1] + \ [-1, -1, +1, +1, -1, -1, -1] + \ [-1, -1, +1, +1, -1, -1, -1] + \ [-1, -1, +1, +1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] _eight = [-1, +1, +1, +1, +1, +1, -1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [-1, +1, +1, +1, +1, +1, -1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [-1, +1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] _nine = [-1, +1, +1, +1, +1, +1, -1] + \ [+1, +1, -1, -1, +1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, +1, +1, +1] + \ [-1, +1, +1, +1, +1, +1, +1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [-1, -1, -1, -1, +1, +1, -1] + \ [-1, +1, +1, +1, +1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] RBF_WEIGHT = np.array([_zero, _one, _two, _three, _four, _five, _six, _seven, _eight, _nine]).transpose() class RBFLayer(nn.Module): def __init__(self, in_features, out_features, init_weight = None): super(RBFLayer, self).__init__() if init_weight is not None: self.register_buffer("weight", torch.tensor(init_weight)) else: self.register_buffer("weight", torch.rand(in_features, out_features)) def forward(self, x): x = x.unsqueeze(-1) x = (x - self.weight).pow(2).sum(-2) return x
这样在定义Output层的时候可使用下面的代码:
self.Output = RBFLayer(84, 10, RBF_WEIGHT)
到这里咱们整个神经网络LeNet-5的基本结构就就定义完毕了,而后初始化部分实际上和LeNet-1989是一致的,在这里就很少讲解了。
在神经网络的结构定义完成以后,咱们还须要定义激活函数,要否则咱们的LeNet-5的forward函数没有办法写嘛。前面咱们提到,卷积层都没有激活函数,池化层都有Sigmoid函数,F6层后面有一个特殊的Tanh函数。这样作实际上是能够的,可是我不知道为啥啊,按照论文这样去训练的话,要么损失函数基本不动,要么干脆直接不断增长而后爆炸······因此这里为了契合后面的训练方法,而且让咱们的模型能正常训练出来,这俩咱们前面全部的Sigmoid函数就都用那个特殊的Tanh函数来代替:
self.act = nn.Tanh()
一样的,咱们将系数放到forward里面再加,如今先不用管。
这样咱们的神经网络的forward函数也能够写一下啦:
def forward(self, x): x = self.C1(x) x = 1.7159 * self.act(2 * self.S2(x) / 3) x = self.C3(x) x = 1.7159 * self.act(2 * self.S4(x) / 3) x = self.C5(x) x = x.view(-1, 120) x = 1.7159 * self.act(2 * self.F6(x) / 3) out = self.Output(x) return out
而对于损失函数,论文提到,就是使用Output层的输出。什么意思呢?在不考虑batch_size的状况下,咱们的Output层的输出应该是一个[10]的向量,每个值就对应着输入样本到 0-9 的其中一个数字编码向量的距离。假设咱们输入的图片是0,而后Output层的输出是[7, 6, 4, 38, 1, 3, 54, 32, 64, 31],那么对应的损失函数值就是对应的实际类别的距离值,也就是out[0] = 7。
如今咱们结合着这个损失函数以及Output层的计算思路,若是有接触过一些关于机器学习和深度学习的分类方法的话,应该能判断出来,这个和在分类问题中的交叉熵损失已经很像了,交叉熵损失的计算其实就是一个log_softmax + NLLoss嘛,虽然在这个LeNet-5中并非用的log_softmax,而是直接用的距离,不过从思路上讲,跳出了之前经常使用的位置编码以及one-hot向量,这一点已是至关超前了啊。
那这样看的话,实际上损失函数就只是一个简单的切片索引操做,代码其实很简单,就不详细讲了,直接上代码好啦。
def loss_fn(pred, label): if(label.dim() == 1): return pred[torch.arange(pred.size(0)), label] else: return pred[torch.arange(pred.size(0)), label.squeeze()]
如今咱们终于把和网络结构部分的全部代码都搞定啦!往回一看发现内容是真的多,这也是为何这一部分我决定每一部分都把原理和代码全都放在一块儿,要是把代码和原理分开,我估计代码敲着敲着就不知道该写哪里了。这一部分的内容仍是蛮重要的,若是以为有点混乱的话,最好仍是反复多看几遍。下面就是整个神经网络结构的完整代码啦:
class LeNet5(nn.Module): def __init__(self): super(LeNet5, self).__init__() self.C1 = nn.Conv2d(1, 6, 5, padding = 2, padding_mode = 'replicate') self.S2 = Subsampling(6) self.C3 = MapConv(6, 16, 5) self.S4 = Subsampling(16) self.C5 = nn.Conv2d(16, 120, 5) self.F6 = nn.Linear(120, 84) self.Output = RBFLayer(84, 10, RBF_WEIGHT) self.act = nn.Tanh() for m in self.modules(): if isinstance(m, nn.Conv2d): F_in = m.kernel_size[0] * m.kernel_size[1] * m.in_channels m.weight.data = torch.rand(m.weight.data.size()) * 4.8 / F_in - 2.4 / F_in elif isinstance(m, nn.Linear): F_in = m.in_features m.weight.data = torch.rand(m.weight.data.size()) * 4.8 / F_in - 2.4 / F_in def forward(self, x): x = self.C1(x) x = 1.7159 * self.act(2 * self.S2(x) / 3) x = self.C3(x) x = 1.7159 * self.act(2 * self.S4(x) / 3) x = self.C5(x) x = x.view(-1, 120) x = 1.7159 * self.act(2 * self.F6(x) / 3) out = self.Output(x) return out
训练函数部分和以前的LeNet-1989相比基本没有什么变化,因此这里咱们先把整个代码放上来:
def train(epochs, model, optimizer, scheduler: bool, loss_fn, trainSet, testSet): trainNum = len(trainSet) testNum = len(testSet) for epoch in range(epochs): lossSum = 0.0 print("epoch: {:02d} / {:d}".format(epoch+1, epochs)) for idx, (img, label) in enumerate(trainSet): x = img.unsqueeze(0).to(device) y = torch.tensor([label], dtype = torch.long).to(device) out = model(x) optimizer.zero_grad() loss = loss_fn(out, y) loss.backward() optimizer.step() lossSum += loss.item() if (idx + 1) % 2000 == 0: print("sample: {:05d} / {:d} --> loss: {:.4f}".format(idx+1, trainNum, loss.item())) lossList.append(lossSum / trainNum) with torch.no_grad(): errorNum = 0 for img, label in trainSet: x = img.unsqueeze(0).to(device) out = model(x) _, pred_y = out.min(dim = 1) if(pred_y != label): errorNum += 1 trainError.append(errorNum / trainNum) errorNum = 0 for img, label in testSet: x = img.unsqueeze(0).to(device) out = model(x) _, pred_y = out.min(dim = 1) if(pred_y != label): errorNum += 1 testError.append(errorNum / testNum) if scheduler == True: if epoch < 5: for param_group in optimizer.param_groups: param_group['lr'] = 1.0e-3 elif epoch < 10: for param_group in optimizer.param_groups: param_group['lr'] = 5.0e-4 elif epoch < 15: for param_group in optimizer.param_groups: param_group['lr'] = 2.0e-4 else: for param_group in optimizer.param_groups: param_group['lr'] = 1.0e-4 torch.save(model.state_dict(), 'F:\\Code_Set\\Python\\PaperExp\\LeNet-5\\epoch-{:d}_loss-{:.6f}_error-{:.2%}.pth'.format(epochs, lossList[-1], testError[-1]))
咱们能够发现,和上一篇的LeNet-1989的训练函数比较,就只有一些小地方不太同样:
在上一篇中,我并无说这个后面的if判断里面的代码究竟是怎么回事,因此这里就来大体讲一下:
在训练神经网络的时候会用到各类各样的优化器,而且在初始化优化器的时候咱们经常会使用下面这样的语句:
optimizer = optim.Adam(model.parameters(), lr=0.001)
实际上当这样定义以后,框架就会将全部的相关参数,存到优化器内部的一个字典param_group里面,而且因为optimizer里面可能会有不少组参数,因此里面还有一个更大的字典param_groups,里面是全部的param_group。这样当咱们想要调整学习率的时候,就能够在每一次训练结束以后,经过遍历这两个字典,来将全部的和训练相关的参数进行自定义的调整。
固然实际上还有一些类能够专门用于调整学习率,可是在这里不太好用,因此我就本身写了一下,你们有兴趣能够去查一下相关的资料,很容易找的。
这里还有一个和论文不太同样的地方就是,论文里面的学习率调整其实蛮复杂的,他大概是这样调的:
指定一个常数μ=0.02
每个epoch先给一个基准的学习率ε
每通过必定数量的样本,累计计算二阶导数h
每次进行梯度降低的时候使用的实际学习率为
就是这么恶心,因此这里我就省点事,不计算二阶导数了,直接就按照他的ε的降低规律进行训练好啦(这也有多是我训练效果不如论文里面的缘由吧)
那么如今咱们关于整个模型的构建以及训练等相关部分就都讲完了,接下来,添加一些简单的可视化工做,而后把代码所有都拼到一块儿吧:
import torch import torch.nn as nn import torch.optim as optim from torchvision import datasets from torchvision import transforms as T from torch.utils.data import DataLoader import matplotlib.pyplot as plt import numpy as np ''' 定义数据的初始化方法: 1. 将数据转化成tensor 2. 将数据的灰度值范围从[0, 1]转化为[-0.1, 1.175] 3. 将数据进行尺寸变化的操做咱们放在卷积层的padding操做中,这样更加方便 ''' picProcessor = T.Compose([ T.ToTensor(), T.Normalize( mean = [0.1 / 1.275], std = [1.0 / 1.275] ), ]) ''' 数据的读取和处理: 1. 从官网下载太慢了,因此先从新指定路径,而且在mnist.py文件里把url改掉 2. 使用上面的处理器进行MNIST数据的处理,并加载 3. 将每一张图片的标签转换成one-hot向量 ''' dataPath = "F:\\Code_Set\\Python\\PaperExp\\DataSetForPaper\\" #在使用的时候请改为本身实际的MNIST数据集路径 mnistTrain = datasets.MNIST(dataPath, train = True, download = False, transform = picProcessor) mnistTest = datasets.MNIST(dataPath, train = False, download = False, transform = picProcessor) # 由于若是在CPU上,模型的训练速度仍是相对来讲较慢的,因此若是有条件的话就在GPU上跑吧(通常的N卡基本都支持) device = torch.device("cuda:0") if torch.cuda.is_available() else torch.device("cpu") ''' 神经网络类的定义 1. C1(卷积层): in_channel = 1, out_channel = 6, kernel_size = (5, 5), stride = 1, 咱们在这里将图片进行padding放大: padding = 2, padding_mode = 'replicate', 含义是用复制的方式进行padding 2. 激活函数: 无 3. S2(下采样,即池化层):kernel_size = (2, 2), stride = (2, 2), in_channel = 6, 采用平均池化,根据论文,加权平均权重及偏置也可训练 4. 激活函数:1.7159Tanh(2/3 * x) 5. C3(卷积层): in_channel = 6, out_channel = 16, kernel_size = (5, 5), stride = 1, padding = 0, 须要注意的是,这个卷积层 须要使用map进行一个层次的选择 6. 激活函数: 无 7. S4(下采样,即池化层):和S2基本一致,in_channel = 16 8. 激活函数: 同S2 9. C5(卷积层): in_channel = 16, out_channel = 120, kernel_size = (5, 5), stride = 1, padding = 0 10. 激活函数: 无 11. F6(全链接层): 120 * 84 12. 激活函数: 同S4 13. output: RBF函数,定义比较复杂,直接看程序 无激活函数 按照论文的说明,须要对网络的权重进行一个[-2.4/F_in, 2.4/F_in]的均匀分布的初始化 因为池化层和C3卷积层和Pytorch提供的API不同,而且RBF函数以及损失函数Pytorch中并未提供,因此咱们须要继承nn.Module类自行构造 ''' # 池化层的构造 class Subsampling(nn.Module): def __init__(self, in_channel): super(Subsampling, self).__init__() self.pool = nn.AvgPool2d(2) #先作一个平均池化,而后直接对池化结果作一个加权 #这个从数学公式上讲和对池化层每个单元都定义一个相同权重值是等价的 self.in_channel = in_channel F_in = 4 * self.in_channel self.weight = nn.Parameter(torch.rand(self.in_channel) * 4.8 / F_in - 2.4 / F_in, requires_grad = True) self.bias = nn.Parameter(torch.rand(self.in_channel), requires_grad = True) def forward(self, x): x = self.pool(x) outs = [] #对每个channel的特征图进行池化,结果存储在这里 for channel in range(self.in_channel): out = x[:, channel] * self.weight[channel] + self.bias[channel] #这一步计算每个channel的池化结果[batch_size, height, weight] outs.append(out.unsqueeze(1)) #把channel的维度加进去[batch_size, channel, height, weight] return torch.cat(outs, dim = 1) # C3卷积层的构造 class MapConv(nn.Module): def __init__(self, in_channel, out_channel, kernel_size = 5): super(MapConv, self).__init__() #定义特征图的映射方式 mapInfo = [[1, 0, 0, 0, 1, 1, 1, 0, 0, 1, 1, 1, 1, 0, 1, 1], [1, 1, 0, 0, 0, 1, 1, 1, 0, 0, 1, 1, 1, 1, 0, 1], [1, 1, 1, 0, 0, 0, 1, 1, 1, 0, 0, 1, 0, 1, 1, 1], [0, 1, 1, 1, 0, 0, 1, 1, 1, 1, 0, 0, 1, 0, 1, 1], [0, 0, 1, 1, 1, 0, 0, 1, 1, 1, 1, 0, 1, 1, 0, 1], [0, 0, 0, 1, 1, 1, 0, 0, 1, 1, 1, 1, 0, 1, 1, 1]] mapInfo = torch.tensor(mapInfo, dtype = torch.long) self.register_buffer("mapInfo", mapInfo) #在Module中的buffer中的参数是不会被求梯度的 self.in_channel = in_channel self.out_channel = out_channel self.convs = {} #将每个定义的卷积层都放进这个字典 #对每个新创建的卷积层都进行注册,使其真正成为模块而且方便调用 for i in range(self.out_channel): conv = nn.Conv2d(mapInfo[:, i].sum().item(), 1, kernel_size) convName = "conv{}".format(i) self.convs[convName] = conv self.add_module(convName, conv) def forward(self, x): outs = [] #对每个卷积层经过映射来计算卷积,结果存储在这里 for i in range(self.out_channel): mapIdx = self.mapInfo[:, i].nonzero().squeeze() convInput = x.index_select(1, mapIdx) convOutput = self.convs['conv{}'.format(i)](convInput) outs.append(convOutput) return torch.cat(outs, dim = 1) # RBF函数output层的构建 class RBFLayer(nn.Module): def __init__(self, in_features, out_features, init_weight = None): super(RBFLayer, self).__init__() if init_weight is not None: self.register_buffer("weight", torch.tensor(init_weight)) else: self.register_buffer("weight", torch.rand(in_features, out_features)) def forward(self, x): x = x.unsqueeze(-1) x = (x - self.weight).pow(2).sum(-2) return x # 损失函数的构建 def loss_fn(pred, label): if(label.dim() == 1): return pred[torch.arange(pred.size(0)), label] else: return pred[torch.arange(pred.size(0)), label.squeeze()] # RBF的初始化权重 _zero = [-1, +1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, +1, +1, +1, -1, -1] + \ [-1, +1, +1, -1, +1, +1, -1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [-1, +1, +1, -1, +1, +1, -1] + \ [-1, -1, +1, +1, +1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] _one = [-1, -1, -1, +1, +1, -1, -1] + \ [-1, -1, +1, +1, +1, -1, -1] + \ [-1, +1, +1, +1, +1, -1, -1] + \ [-1, -1, -1, +1, +1, -1, -1] + \ [-1, -1, -1, +1, +1, -1, -1] + \ [-1, -1, -1, +1, +1, -1, -1] + \ [-1, -1, -1, +1, +1, -1, -1] + \ [-1, -1, -1, +1, +1, -1, -1] + \ [-1, -1, -1, +1, +1, -1, -1] + \ [-1, +1, +1, +1, +1, +1, +1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] _two = [-1, +1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, +1, +1, +1, +1, +1, -1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, -1, -1, -1, -1, +1, +1] + \ [-1, -1, -1, -1, +1, +1, -1] + \ [-1, -1, +1, +1, +1, -1, -1] + \ [-1, +1, +1, -1, -1, -1, -1] + \ [+1, +1, -1, -1, -1, -1, -1] + \ [+1, +1, +1, +1, +1, +1, +1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] _three = [+1, +1, +1, +1, +1, +1, +1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [-1, -1, -1, -1, +1, +1, -1] + \ [-1, -1, -1, +1, +1, -1, -1] + \ [-1, -1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [-1, +1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] _four = [-1, +1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, +1, +1, -1, -1, +1, +1] + \ [-1, +1, +1, -1, -1, +1, +1] + \ [+1, +1, +1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, +1, +1, +1] + \ [-1, +1, +1, +1, +1, +1, +1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [-1, -1, -1, -1, -1, +1, +1] _five = [-1, +1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [+1, +1, +1, +1, +1, +1, +1] + \ [+1, +1, -1, -1, -1, -1, -1] + \ [+1, +1, -1, -1, -1, -1, -1] + \ [-1, +1, +1, +1, +1, -1, -1] + \ [-1, -1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [-1, +1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] _six = [-1, -1, +1, +1, +1, +1, -1] + \ [-1, +1, +1, -1, -1, -1, -1] + \ [+1, +1, -1, -1, -1, -1, -1] + \ [+1, +1, -1, -1, -1, -1, -1] + \ [+1, +1, +1, +1, +1, +1, -1] + \ [+1, +1, +1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, +1, -1, -1, +1, +1] + \ [-1, +1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] _seven = [+1, +1, +1, +1, +1, +1, +1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [-1, -1, -1, -1, +1, +1, -1] + \ [-1, -1, -1, +1, +1, -1, -1] + \ [-1, -1, -1, +1, +1, -1, -1] + \ [-1, -1, +1, +1, -1, -1, -1] + \ [-1, -1, +1, +1, -1, -1, -1] + \ [-1, -1, +1, +1, -1, -1, -1] + \ [-1, -1, +1, +1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] _eight = [-1, +1, +1, +1, +1, +1, -1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [-1, +1, +1, +1, +1, +1, -1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [-1, +1, +1, +1, +1, +1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] _nine = [-1, +1, +1, +1, +1, +1, -1] + \ [+1, +1, -1, -1, +1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, -1, +1, +1] + \ [+1, +1, -1, -1, +1, +1, +1] + \ [-1, +1, +1, +1, +1, +1, +1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [-1, -1, -1, -1, -1, +1, +1] + \ [-1, -1, -1, -1, +1, +1, -1] + \ [-1, +1, +1, +1, +1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] + \ [-1, -1, -1, -1, -1, -1, -1] RBF_WEIGHT = np.array([_zero, _one, _two, _three, _four, _five, _six, _seven, _eight, _nine]).transpose() #整个神经网络的搭建 class LeNet5(nn.Module): def __init__(self): super(LeNet5, self).__init__() self.C1 = nn.Conv2d(1, 6, 5, padding = 2, padding_mode = 'replicate') self.S2 = Subsampling(6) self.C3 = MapConv(6, 16, 5) self.S4 = Subsampling(16) self.C5 = nn.Conv2d(16, 120, 5) self.F6 = nn.Linear(120, 84) self.Output = RBFLayer(84, 10, RBF_WEIGHT) self.act = nn.Tanh() for m in self.modules(): if isinstance(m, nn.Conv2d): F_in = m.kernel_size[0] * m.kernel_size[1] * m.in_channels m.weight.data = torch.rand(m.weight.data.size()) * 4.8 / F_in - 2.4 / F_in elif isinstance(m, nn.Linear): F_in = m.in_features m.weight.data = torch.rand(m.weight.data.size()) * 4.8 / F_in - 2.4 / F_in def forward(self, x): x = self.C1(x) x = 1.7159 * self.act(2 * self.S2(x) / 3) x = self.C3(x) x = 1.7159 * self.act(2 * self.S4(x) / 3) x = self.C5(x) x = x.view(-1, 120) x = 1.7159 * self.act(2 * self.F6(x) / 3) out = self.Output(x) return out lossList = [] trainError = [] testError = [] #训练函数部分 def train(epochs, model, optimizer, scheduler: bool, loss_fn, trainSet, testSet): trainNum = len(trainSet) testNum = len(testSet) for epoch in range(epochs): lossSum = 0.0 print("epoch: {:02d} / {:d}".format(epoch+1, epochs)) for idx, (img, label) in enumerate(trainSet): x = img.unsqueeze(0).to(device) y = torch.tensor([label], dtype = torch.long).to(device) out = model(x) optimizer.zero_grad() loss = loss_fn(out, y) loss.backward() optimizer.step() lossSum += loss.item() if (idx + 1) % 2000 == 0: print("sample: {:05d} / {:d} --> loss: {:.4f}".format(idx+1, trainNum, loss.item())) lossList.append(lossSum / trainNum) with torch.no_grad(): errorNum = 0 for img, label in trainSet: x = img.unsqueeze(0).to(device) out = model(x) _, pred_y = out.min(dim = 1) if(pred_y != label): errorNum += 1 trainError.append(errorNum / trainNum) errorNum = 0 for img, label in testSet: x = img.unsqueeze(0).to(device) out = model(x) _, pred_y = out.min(dim = 1) if(pred_y != label): errorNum += 1 testError.append(errorNum / testNum) if scheduler == True: if epoch < 5: for param_group in optimizer.param_groups: param_group['lr'] = 1.0e-3 elif epoch < 10: for param_group in optimizer.param_groups: param_group['lr'] = 5.0e-4 elif epoch < 15: for param_group in optimizer.param_groups: param_group['lr'] = 2.0e-4 else: for param_group in optimizer.param_groups: param_group['lr'] = 1.0e-4 torch.save(model.state_dict(), 'F:\\Code_Set\\Python\\PaperExp\\LeNet-5\\epoch-{:d}_loss-{:.6f}_error-{:.2%}.pth'.format(epochs, lossList[-1], testError[-1])) if __name__ == '__main__': model = LeNet5().to(device) optimizer = optim.SGD(model.parameters(), lr = 1.0e-3) scheduler = True epochs = 25 train(epochs, model, optimizer, scheduler, loss_fn, mnistTrain, mnistTest) plt.subplot(1, 3, 1) plt.plot(lossList) plt.subplot(1, 3, 2) plt.plot(trainError) plt.subplot(1, 3 ,3) plt.plot(testError) plt.show()
我写到这里真的有点头痛了······因此我就偷个懒,结果的曲线就不画了,直接说一个结果好了。
最终这个模型训练,在训练25轮以后,损失函数值为5.0465(论文并未说起),在训练集的错误率为1.2%(论文为0.35%),在测试集上的错误率为2.1%(论文为0.95%),不过考虑到他的学习率的降低方式并未被完美还原,再加上训练25轮的时候模型其实还有收敛的空间,只不过由于当时忽然有点别的工做因此电脑要腾出来干别的没得办法继续训练了,因此其实模型的性能还能再经过训练提升。不过就复现工做自己,我以为已经差很少能够了吧,嗯,就当时这样好了┓( ´∀` )┏
整体来讲这篇论文不少地方很是值得学习,主要存在如下几个方面吧:
先不说上面的理论上理解了多少,反正在复现这篇论文的时候,最起码python以及pytorch的编程能力上确定是提升了很多,并且pytorch的源码阅读经验也确定是积累了很多┓( ´∀` )┏
整篇论文确实有很多闪光点,可是里面仍是有一些不是很好的地方,固然啦这篇文章在当时来看已是至关优秀了,只是在技术不断发展的如今,再回过头去看这篇文章,多少仍是有一点点论文已经落伍了的感受,而且有一些地方在我我的浅薄的知识量来看,感受有一点不太对劲:
这样作是最准确的,可是会致使每一次都要计算不少的导数进行相加,并且这么大的计算量还只是计算了更新参数的一小步,每一小步都要计算这么多东西,很明显计算成本是很高的。
仔细观察一下上面的式子,能够发现若是把整个训练集看作一个整体空间,那么取平均至关因而求一个指望,从咱们学习过的几率论里面的东西能够知道,若是咱们从中取出一部分样本,对样本求均值,那这个均值确定是实际指望的无偏估计量,而这个实际上就是mini-batch的梯度降低的思想。若是咱们进一步极端化,彻底能够取其中的一个样本值做为指望来代替,这也就是SGD随机梯度降低。可是你们思考一下,随机梯度降低一次选一个样本是很快,可是这个样本值和实际的指望之间的差距太过于随机了,致使模型极可能朝着彻底不合适的方向进行优化,因此合理的使用mini-batch我以为才是最好的。
从这个描述上也能够看出来,为了引入随机性而且不让计算量太大,batch_size也不能取得太大。
总之从学习来讲,这篇论文比较适合拿来作一个对比思考,以及用来熟悉Pytorch的各类操做。反正我是以为看完这篇论文以后,基本的一些深度学习的概念,以及Pytorch各类模块与类的使用,好多都涉及到了,并且掌握地也稍微比之前好了那么一点点。
固然啦,我也算是一个刚刚入行的小白,可能仍是不少的内容说得并不正确,仍是但愿各位大佬能在评论区批评指正。下一篇打算是复现一下AlexNet,可是ImageNet的数据集一来我不知道从哪里找(官网下载有点慢,若是谁有网盘连接但愿能给我一份,不胜感激),二来是这个数据集太大了,130+G,我假期回家之后就家里的破电脑实在是无能为力,因此下一篇重点就放在模型怎么构建上,就不训练了哈,你们感兴趣能够本身搞一搞,我就不弄了。
写了这么多可算是要结束了,忽然有点不舍得呢(T_T),若是不出意外的话应该就是更新AlexNet了,那你们下次再见辣!(一看字数快2w,头一次写这么多我真是要吐了)
参考内容: