PyTorch(非线性回归---3.3)

数据部分上面一小节差不多。 1.这个类的定义,先是定义了隐含层和输出层,然后定义了前向传播函数(包括relu处理隐含层输出、加最终输出)                       2.优化函数(传入的参数是神经网络的参数)以及loss函数。                       3. 这里的backward是先清空了梯度,在计算梯度,最后在step更新梯度。                
相关文章
相关标签/搜索