Surpassing Human-Level Performance on ImageNet Classification ImageNet Classification

在该文章的两大创新点:一个是PReLU,一个是权值初始化的方法。下面我们分别一一来看。     PReLU(paramter ReLU) 所谓的PRelu,即在 ReLU激活函数的基础上加入了一个参数,看一个图就明白了: 右边的图上多了一个参数吧,在负半轴上不再为0,而是一个可以学习的斜率。  很容易明白。实验结果显示该方法可以提高识别率。   权值初始化的方法:   对于文中的权值初始化问题:主
相关文章
相关标签/搜索