经典CNN之:AlexNet介绍

1. AlexNet模型的特点 使用了非线性激活函数:ReLU 防止过拟合的方法:Dropout,数据扩充(Data augmentation) 其他:多GPU实现,LRN归一化层的使用 1.1 使用ReLU激活函数 传统的神经网络普遍使用Sigmoid或者tanh等非线性函数作为激励函数,然而它们容易出现梯度弥散或梯度饱和的情况。 在AlexNet中,使用了ReLU (Rectified Lin
相关文章
相关标签/搜索