为什么神经网络中需要激活函数(activation function)?

在看tensorflow的时候,发现书中代码提到,使用ReLU激活函数完成去线性化 为什么需要激活函数去线性化? 查了一下quaro,觉得这个回答能看明白(顺便问一句,截图算不算引用??) ---------------------------------------------------------------------------- 个人理解: 如果不用激活函数,多层神经网络和一层神经网络
相关文章
相关标签/搜索