Relu的做用

转自一个知乎问答;https://www.zhihu.com/question/29021768网络 1.为何引入非线性激励函数?app 若是不适用激励函数,那么在这种状况下每一层的输出都是上层输入的线性函数,很容易验证,不管你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果至关,这种状况就是最原始的感知机(perceptron)了dom 正由于上面的缘由,咱们决定引入非线性函数做为激励
相关文章
相关标签/搜索