深度学习—非线性激活函数全面详解(Sigmoid、tanh、ReLU、Leaky ReLU、PReLU、RReLU、ELU、SELU、Swish、Maxout 10种)

非线性激活函数详解 饱和激活函数 Sigmoid函数 tanh函数 非饱和激活函数 Relu(修正线性单元): ELU(指数线性单元) SELU Leaky-Relu / R-Relu P-Relu(参数化修正线性单元) R-Relu(随机纠正线性单元) Swish Maxout 关于激活函数统一说明 参考链接 因为深度学习模型中其它的层都是线性的函数拟合,即便是用很深的网络去拟合,其还是避免不了
相关文章
相关标签/搜索