[Lecture 7 ] Training Neural Networks II(训练神经网络II)

文章目录 课堂问答 1. 更好的优化 (Fancier optimization) 1.1 SGD 优化 1.2 基于动量的(Momentum)SGD 1.3 AdaGrad 1.4 Adam 1.5 学习率的选择 1.6 二阶优化(Second-Order Optimization) 1.7 模型集成 2. 正则化 (Regularization) 2.1 权重约束 2.2 随机失活(Dropo
相关文章
相关标签/搜索