Relu激活函数及其变种

神经网络中使用激活函数来加入非线性因素,提高模型的抽象表达能力。ReLU(Rectified Linear Unit,修正线性单元) ReLU公式近似推导:: 下面解释上述公式中的softplus,Noisy ReLU. softplus函数与ReLU函数接近,但比较平滑, 同ReLU一样是单边抑制,有宽广的接受域(0,+inf), 但是由于指数运算,对数运算计算量大的原因,而不太被人使用.并且从
相关文章
相关标签/搜索