AlexNet创新点

AlexNet主要使用到的新技术点以下。网络 (1)成功使用ReLU做为CNN的激活函数,并验证其效果在较深的网络超过了Sigmoid,成功解决了Sigmoid在网络较深时的梯度弥散问题。虽然ReLU激活函数在好久以前就被提出了,可是直到AlexNet的出现才将其发扬光大。函数 (2)训练时使用Dropout随机忽略一部分神经元,以免模型过拟合。Dropout虽有单独的论文论述,可是AlexNet
相关文章
相关标签/搜索