计算机视觉(三)

训练与调优 激活函数 1、sigmoid函数不再适用的原因:1)在某些情况下梯度会消失,不利于反向传播,例如,当输如的值过大或过小时,根据函数的图像,返回的梯度都会是0,阻断了梯度的反向传播。2)不是以0为中心,梯度更新低效 2、tanh函数:第二个问题可以避免,但第一个避免不了 3、relu:又快又简单,最接近神经元的工作过程,但仍有缺点,例如不以0为中心,负半轴容易出现梯度的消失 4、leak
相关文章
相关标签/搜索