Rectified Linear Units, 线性修正单元激活函数

转自: https://blog.csdn.net/Jkwwwwwwwwww/article/details/52816433 ReLU 在神经网络中,常用到的激活函数有sigmoid函数: f(x)=11+e−xf(x)=11+e−x 双曲正切函数: f(x)=tanh(x)f(x)=tanh(x) 而本文要介绍的是另外一种激活函数,Rectified Linear Unit Function(
相关文章
相关标签/搜索