深度学习图像分类(一)——AlexNet论文理解

0. 写做目的 好记性不如烂笔头。python 1. 论文理解 1.1 ReLU 激活函数的使用 Rectified Linear Units(ReLU)网络 使用ReLU比使用tanh(或者sigmoid)激活函数收敛速度更快。下图来自AlexNet论文中给出的在CIFAR-10上的测试效果。能够看出ReLU收敛速度更快。app 1.2 多GPU训练 只在特殊层进行GPU数据之间的交流。ide
相关文章
相关标签/搜索