【吴恩达深度学习专栏】浅层神经网络(Shallow neural networks)——激活函数(Activation functions)

文章目录 3.6 激活函数(Activation functions) 3.6 激活函数(Activation functions) 使用一个神经网络时,需要决定使用哪种激活函数用隐藏层上,哪种用在输出节点上。到目前为止,之前的视频只用过sigmoid激活函数,但是,有时其他的激活函数效果会更好。 事实上,tanh函数是sigmoid的向下平移和伸缩后的结果。对它进行了变形后,穿过了(0,0)点,
相关文章
相关标签/搜索