网络
2、激活函数举例:函数
一、sigmoid: y=1/(1+e^{-x}) ——>0<y<1,mean=0.5,适用于二分类学习
二、tanh: y = (exp(x) - exp(-x))/(exp(x) + exp(-x)) ——> -1 < y < 1,mean = 0,spa
tanh比sigmoid高效是由于tanh的均值为0,神经元更喜欢靠近0的输入值class
sigmoid和tanh的缺点:当输入数据的值比较大时,神经网络的学习较慢。神经网络
三、relu: y = x, while x > 0 数据
y = 0, while x <= 0tab
四、leaky relu : y = x,x > 0while
block