pytorch入门2.x构建回归模型系列:
pytorch入门2.0构建回归模型初体验(数据生成)
pytorch入门2.1构建回归模型初体验(模型构建)
pytorch入门2.2构建回归模型初体验(开始训练)
终于要构建模型啦。这里咱们构建的是回归模型,是用神经网络构建的,基本结构是什么样的呢?
你确定据说过,神经网络有输入层、隐藏层、输出层,通常结构以下图所示(图片来源于网络,侵删):
因此,对比咱们以前生成的数据来讲,形如x=3咱们想获得的输出为y=8。分别对应了上面的输入层和输出层,因此,在此咱们要构建中间的隐藏层来模拟那个看不见的函数(咱们生成数据的函数,假设是未知的,由于若是是已知的,咱们直接用这个函数式子来求输出啦。如今就是利用神经网络强大的对函数的拟合能力,来模拟这个函数)。
下面就来创建第一个模型吧:html
class LinearRegression(nn.Module): # 继承父类nn.Module,不少额外的、重要的东西就不用写了,只管本身作的事情就能够(你不是要创建回归模型么) def __init__(self): super(LinearRegression,self).__init__() # 调用父类的初始化函数 # 创建隐藏层,下面是三个隐藏层 self.linear = nn.Linear(1,10) # 输入是一个数,因此输出是1,中间创建10个隐藏层节点,此时,你输出的是10个数 self.linear2 = nn.Linear(10,6,bias=True) # 承接上一层的输入,10个数,此层在融合成6个数。这里加了个偏置参数。 self.linear3 = nn.Linear(6,1) # 输出层,承接上面6个数,最终输出一个数 # 至此网络的部件定义完毕 # 网络的部件定义好了,下面开始组装啦,设置数据如何在网络中流动,即前向传播 def forward(self,x): #输入的是x,就是指前面的输入层的输入 # 设置数据流动过程,若是网络很是复杂,此处要注意输入数据的维度,通过各层以后获得的数据维度。 x = F.relu(self.linear(x)) #首先通过一个线性层linear,而后通过一个激活函数relu x = F.relu(self.linear2(x)) #同上 x = self.linear3(x) # 最终通过最后的线性层,获得结果,结果是1维的哦 return x # 返回最后获得的数据
通过上面以后,一个网络模型就定义完成了,动动脑筋想一想咱们构建的模型是怎么样的呢?就是形如上面那张图的样子,只是中间的节点数量会变化。
模型定义好了,固然咱们用的时候要实例化,咱们先实例化一下,打印出来看看模型啥样?python
model = LinearRegression() print(model) ''' ===output=== LinearRegression( (linear): Linear(in_features=1, out_features=10, bias=True) (linear2): Linear(in_features=10, out_features=6, bias=True) (linear3): Linear(in_features=6, out_features=1, bias=True) ) '''
能够看到模型的形状正如咱们上面所介绍,网络模型是有三个线性层,这里把激活函数省略了。
下一节,咱们继续介绍如何使用定义好的网络模型去作回归训练啦。网络