为什么神经网络中需要激活函数(activation function)?

在看tensorflow的时候,发现书中代码提到,使用ReLU激活函数完成去线性化

为什么需要激活函数去线性化?

查了一下quaro,觉得这个回答能看明白(顺便问一句,截图算不算引用??)

----------------------------------------------------------------------------

个人理解:

如果不用激活函数,多层神经网络和一层神经网络就没什么区别了

经过多层神经网络的加权计算,都可以展开成一次的加权计算