深度学习中的激活函数Sigmoid和ReLu激活函数和梯度消失问题。

1. Sigmoid激活函数:                Sigmoid激活函数的缺陷:当 x 取很大的值之后他们对应的 y 值区别不会很大,就会出现梯度消失的问题。因此现在一般都不使用Sigmoid函数,而是使用ReLu激活函数。 2. ReLu激活函数:         ReLu激活函数:当x为负值之后y取0,x为正数之后,y随x的值得增大而增大,这样就可以解决梯度消失问题。现在一般都是用
相关文章
相关标签/搜索