为何神经网络中须要激活函数(activation function)?

在看tensorflow的时候,发现书中代码提到,使用ReLU激活函数完成去线性化网络

为何须要激活函数去线性化?函数

查了一下quaro,以为这个回答能看明白(顺便问一句,截图算不算引用??)blog

----------------------------------------------------------------------------tensorflow

我的理解:神经网络

若是不用激活函数,多层神经网络和一层神经网络就没什么区别了引用

通过多层神经网络的加权计算,均可以展开成一次的加权计算im