为何神经网络中须要激活函数(activation function)?

在看tensorflow的时候,发现书中代码提到,使用ReLU激活函数完成去线性化网络 为何须要激活函数去线性化?函数 查了一下quaro,以为这个回答能看明白(顺便问一句,截图算不算引用??)blog ----------------------------------------------------------------------------tensorflow 我的理解:神经网络 若
相关文章
相关标签/搜索