吴恩达深度学习总结(6)

optimization algorithm mini-batch gradient descent 定义 优点 Gradient Descent with momentum 基本思想 流程 加权指数平均介绍 直观理解 RMSprop(Root Mean Square prop) 基本思想 流程 Adam optimization algorithm 学习率衰减 原因 衰减方法 局部最优点 min
相关文章
相关标签/搜索