机器学习笔记(4)--激活函数Activate Function

主题:激活函数 Sigmoid、tanh、relu比较 Table of Contents 激活函数 sigmoid函数 tanh函数 relu函数 激活函数 激活函数(activation functions)的目标是,将神经网络非线性化。 激活函数是连续的(continuous)且可导的(differential)。 激活函数的两个性质: 连续的:当输入值发生较小的改变时,输出值也发生较小的改
相关文章
相关标签/搜索