深度学习之常用激活函数

引言 激活函数的目标是,将神经网络非线性化。激活函数是连续的且可导的。 连续的:当输入值发生较小的改变时,输出值也发生较小的改变; 可导的:在定义域中,每一处都是存在导数; 常见的激活函数:sigmoid,tanh,relu。 sigmoid sigmoid是平滑的阶梯函数,可导。sigmoid可以将任何值转换为0~1概率,用于二分类。 当使用sigmoid作为激活函数时,随着神经网络隐含层(hi
相关文章
相关标签/搜索