神经网络不同激活函数比较--读《Understanding the difficulty of training deep feedforward neural networks》

转载:https://ziyubiti.github.io/2016/11/01/actfunpaper/          这篇论文比较了不同激活函数的中间各隐层输出值分布、梯度值分布、测试准确度等,从上图看出,至少在mnist和cifar10测试集下,看起来tanh和softsign都要好于sigmoid。
相关文章
相关标签/搜索