AlexNet论文总结与代码实现

AlexNet包含6千万个参数和65万个神经元,包含了5个卷积层,其中有几层后面跟着最大池化(max-pooling)层,以及3个全链接层,最后还有一个1000路的softmax层。为了加快训练速度,AlexNet使用了Relu非线性激活函数以及一种高效的基于GPU的卷积运算方法。为了减小全链接层的过拟合,AlexNet采用了最新的正则化方法“dropout”,该方法被证实很是有效。git 总结一
相关文章
相关标签/搜索