在看tensorflow的时候,发现书中代码提到,使用ReLU激活函数完成去线性化
为什么需要激活函数去线性化?
查了一下quaro,觉得这个回答能看明白(顺便问一句,截图算不算引用??)
----------------------------------------------------------------------------
个人理解:
如果不用激活函数,多层神经网络和一层神经网络就没什么区别了
经过多层神经网络的加权计算,都可以展开成一次的加权计算