激活函数Relu的优势

激活函数Relu的优势网络

  1.可使网络训练更快函数

  2.增长网络的非线性神经网络

  3.防止梯度消失(弥散)

  4.使网络具备稀疏性

Dropout层:

  做用:随机将必定比例的神经元置为0

 

神经网络处理图像分类的流程:

训练阶段:  

相关文章
相关标签/搜索