深度学习:**函数的比较和优缺点,sigmoid,tanh,relu

1、什么是**函数 2、为什么要用 3、都有什么**函数 4、sigmoid,Relu,softmax   1. 什么是**函数   如下图,在神经元中,输入的 inputs 通过加权,求和后,还被作用了一个函数,这个函数就是**函数 Activation Function。 2. 为什么要用 如果不用激励函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合。 如果
相关文章
相关标签/搜索