AlexNet 学习

四个创新点: 一)ReLU     在梯度下降中,不饱和非线性比饱和非线性快很多。 二)在双GPU上训练     双显卡并行计算,只和各自相关显卡的上一层有关联,加快速度。 三)LRN      ReLU不需要归一化防止过饱和,不过仍然发现以下公式帮助归一化。          (x,y)位置,i kernal,k, n, a,b 是超参数(无特定含义的字的参数)。 四)重叠池化     错误率下
相关文章
相关标签/搜索