AlexNet卷积神经网络实现

AlexNet特点 使用ReLU作为激活函数,解决了sigmoid在网络较深时的梯度弥散问题 使用Dropout随机忽略一部分神经元,以避免过拟合 使用重叠的maxpool,避免argpool的模糊化效果 提出LRN层,对局部神经元的活动创建竞争机制,使其中响应比较大的值变得相对更大,并抑制其它反馈较小的神经元,增强模型的泛化能力 GTX 580*2 3GB 数据增强:随机从256256的原始图像
相关文章
相关标签/搜索