为什么引入ReLU**函数

https://blog.csdn.net/fredinators/article/details/79443386 ReLu是神经网络中的一个**函数,其优于tanh和sigmoid函数。 1.为何引入非线性的**函数? 如果不用**函数,在这种情况下每一层输出都是上层输入的线性函数。容易验证,无论神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,这种情况就是最原始的感知机(Per
相关文章
相关标签/搜索