CNN网络结构层次解析

输入层 卷积层 卷积核其实就是权值  1.2 池化层(Pooling)算法 1.ReLU非线性特征 网络 一句话归纳:不用simgoid和tanh做为激活函数,而用ReLU做为激活函数的缘由是:加速收敛。函数 由于sigmoid和tanh都是饱和(saturating)的。何为饱和?我的理解是把这二者的函数曲线和导数曲线plot出来就知道了:他们的导数都是倒过来的碗状,也就是,越接近目标,对应
相关文章
相关标签/搜索