[DL]激活函数

1、激活函数:是一个非线性函数,用激活函数套在线性函数外面,正割函数就变成非线性函数,用在神经网络中,能够使得本只能拟合线性曲线的网络层,能够拟合非线性曲线。网络

2、激活函数举例:函数

一、sigmoid: y=1/(1+e^{-x}) ——>0<y<1,mean=0.5,适用于二分类学习

二、tanh: y = (exp(x) - exp(-x))/(exp(x) + exp(-x)) ——> -1 < y < 1,mean = 0,spa

tanh比sigmoid高效是由于tanh的均值为0,神经元更喜欢靠近0的输入值class

sigmoid和tanh的缺点:当输入数据的值比较大时,神经网络的学习较慢。神经网络

三、relu: y = x, while x > 0 数据

y = 0, while x <= 0tab

四、leaky relu : y = x,x > 0while

y = λx, x <= 0block

五、softmax: y = exp(z) / np.sum(exp(z))

相关文章
相关标签/搜索