Deep learning I - III Shallow Neural Network - Activation functions深度学习常用激励函数

Activation functions 激励函数 Reference:Deep Learning from Coursera, especially Andrew Ng’s team 从前,使用sigmod function作为激励函数是常用的选择 目前,用tanh function代替sigmod function是很好的选择 但是,作为二分类网络最后的一层,还是会选用sigmod 观察tan
相关文章
相关标签/搜索