神经网络为何须要激活函数

参考文档:深度学习花书 转载请说明来源web 神经网络为何须要激活函数 激活函数也叫非线性函数,用于对数据进行非线性变换。目前主要的激活函数有整流线性单元(Relu)、sigmoid激活函数、双曲正切激活函数(tanh)等,目前神经网络主要用的是relu(整流线性单元),在引入整流线性单元以前,大多数神经网络都使用sigmoid函数做为激活函数,sigmoid函数做做为输入单元的激活函数用来预测二
相关文章
相关标签/搜索