在看tensorflow的时候,发现书中代码提到,使用ReLU激活函数完成去线性化网络
为何须要激活函数去线性化?函数
查了一下quaro,以为这个回答能看明白(顺便问一句,截图算不算引用??)blog
----------------------------------------------------------------------------tensorflow
我的理解:神经网络
若是不用激活函数,多层神经网络和一层神经网络就没什么区别了引用
通过多层神经网络的加权计算,均可以展开成一次的加权计算im