激活函数Relu的优势网络
1.可使网络训练更快函数
2.增长网络的非线性神经网络
3.防止梯度消失(弥散)
4.使网络具备稀疏性
Dropout层:
做用:随机将必定比例的神经元置为0
神经网络处理图像分类的流程:
训练阶段: