【TensorFlow学习笔记(二)】经常使用方法:激活函数

更新时间:2019-06-07 激活函数 tf.nn.relu() ReLU函数,修正线性单元,在卷积神经网络中应用普遍,定义以下: (1) R e L U ( x ) = m a x ( 0 , x ) ReLU(x)=max(0,x) \tag{1} ReLU(x)=max(0,x)(1) ReLU函数具备以下性质: 优势: (1)计算高效:采用ReLU函数的神经元只须要进行加、乘和比较的操做
相关文章
相关标签/搜索