NeuralNetwork and DeepLearing----Shallow neural networks

摘自黄海广等人笔记 1.激活函数(Activation funcions) 使用一个神经网络时,需要确定哪种激活函数用在隐藏层上,哪种用在输出节点上。 sigmoid函数:a = σ(z) = 11+e−z 1 1 + e − z 更通常的情况下,使用不同的函数g( z[1] z [ 1 ] ),g可以是除了sigmoid函数以外的非线性函数。tanh函数(双曲线正切函数)是总体上都优于sigmo
相关文章
相关标签/搜索