改善深层神经网络:第二周优化算法

文章目录 小批量梯度下降 批量梯度下降 随机梯度下降 小批量梯度下降 理解小批量梯度下降 指数加权平均 指数加权平均修正偏差 Adagrad RMSProp 动量梯度下降法 小批量梯度下降 一共500 000个数据,每批数据1000个,需要5000批, 小批量梯度下降过程 ** 函数假设 ** 批量梯度下降 (1)函数求导 (2)theta更新公式 可以看到每次更新都需要用到全部训练数据,计算量很
相关文章
相关标签/搜索