[深度学习]神经网络的激活函数

为什么要引入非线性激活函数 如果不使用非线性激活函数,激活函数本质上相当于f(x)=ax+b。在这种情况下,神经网络每一层的输出都是上层输入的线性函数。此时,不管神经网络有多少层,输出与输入都是线性关系,与没有隐层是一样的。也就相当于最原始的感知机,连最基本的异或问题都无法解决,更别说其他更复杂的非线性问题。   常见的激活函数 sigmoid函数 sigmoid函数的数学形式为,导数为f(x)(
相关文章
相关标签/搜索