Alexnet

https://blog.csdn.net/daydayup_668819/article/details/79744095 Alexnet的主要贡献 1、使用了非线性激活函数RELU 2、防止过拟合的方法“Dropout”,Data Augumentation(数据增广) 3、其他:多GPU实现,LRN层的使用 使用ReLU激活函数 传统的神经网络普遍使用sigmoid或者tanh等非线性函数作
相关文章
相关标签/搜索