Alexnet-论文解读

摘要 1. 加快训练 不饱和神经元 ReLU GPU 2. 减少过拟合 dropout 一、 引言 二、 数据集预处理 1. Top5 错误率: 正确结果不在预测的前5个标签的百分比 2. 图片大小不一致 : 最短的边缩放为255,然后剪裁成255*255大小 三、 网络结构 1. ReLU 非饱和比饱和的快 2. 多GPU 3. LRN:局部响应归一化 4. overlapping poolin
相关文章
相关标签/搜索