吴恩达深度学习:第二课,第二周:优化算法

文章目录 Mini-batch 梯度下降法 符号定义 前向传播 后向传播 理解mini-batch 梯度下降法 J代价函数的不同 用1个样本为一个mini-batch和全部样本为一个mini-batch举例 合理的簇大小 指数加权平均 理解指数加权平均 指数加权平均的偏差修正 动量梯度下降法 优化成本函数 RMSprop算法 Adam 优化算法 算法公式: 该算法的超参数 学习率衰减 局部最优的问
相关文章
相关标签/搜索