深度学习—激活函数详解(Sigmoid、tanh、ReLU、ReLU6及变体P-R-Leaky、ELU、SELU、Swish、Mish、Maxout、hard-sigmoid、hard-swish)

非线性激活函数详解 饱和激活函数 Sigmoid函数 tanh函数 hard-Sigmoid函数 非饱和激活函数 Relu(修正线性单元): Relu6(抑制其最大值): ELU(指数线性单元) SELU Leaky-Relu / R-Relu P-Relu(参数化修正线性单元) R-Relu(随机纠正线性单元) Swish hard-Swish Mish Maxout 关于激活函数统一说明 参考
相关文章
相关标签/搜索