目录
1、tf.Variable()忘记使用——将需要求导的参数进行该操作,系统会自动记录导数的变化
2、迭代后的参数会自动变成tensor,而不是variable进而报错
这里以UCI中的手写数字集作为数据训练集,假设神经网络层数有4层
输入层:1
隐层:2
输出层:1
按照batch的方式进行训练,一个batch含有128组数据
一个batch在神经网络中训练的shape变换如下:
x【128,28,28】>>>reshape>>>输入:【128,784】>>>隐层1:【128,256】>>>隐层2:【128,128】>>>输出:out【128,10】
y【128,】>>>one_hot>>>【128,10】
一个batch的loss:【128,10】
loss = (y-out)^2
因为minis数据集数据量庞大,如果一个一个样本进行训练会非常耗时,因此将一定数量的样本组合成一个batch,每次对一个batch进行训练,这样会提高训练效率,又不会影响训练出来神经网络的准确性
每一层的w的个数为:上一层神经元数*下一层神经元数
每一层的b的个数为:当前层的神经元个数
利用TensorFlow求解loss对各个参数进行求导时,必须将输入输出的求解以及loss的求解放在上图红色框的内部
这样的话我们就需要利用一个函数,使得迭代变量参数的值发生改变但是对象不会发生改变
梯度爆炸就是指梯度突然非常大,导致后面进行后向传播时,loss不断地增大,得不到最优参数解