深度学习基础(七)—— Activation Function

1. Sigmoid 2. Tanh 3. ReLU 4. LReLU、PReLU与RReLU 4.1 LReLU 4.2 PReLU 4.3 RReLU 4.4 ELU 5 总结 6 参考 1. Sigmoid 函数定义: f(x)=11+e−x f ( x ) = 1 1 + e − x 对应的图像是: 优点: Sigmoid函数的输出映射在(0,1)之间,单调连续,输出范围有限,优化稳定,可
相关文章
相关标签/搜索