深度学习总结五:AlexNet

深度学习总结五:AlexNet 成就 特色 结构 论文连接 代码 成就 2012年ImageNet项目的大规模视觉识别挑战(ILSVRC)冠军。html 特色 使用ReLU函数代替sigmoid做为激活函数,避免梯度消失。由于sigmoid函数趋近0或者1时,梯度趋近0,反向传播时多个梯度相乘致使梯度消失。ReLU函数的导数为常数。 使用dropout防止过拟合。 提出LRN(较少使用)。来自神经
相关文章
相关标签/搜索