【李宏毅机器学习笔记3】Gradient Desccent:梯度下降

背景博客参考:https://blog.csdn.net/soulmeetliang/article/details/72830179 梯度下降非常重要~篇幅也比较长,耐心看(PS:我认为纯数学的推导过程可以选择性的看,过程只是加深理解) 注释2:所有之前参数W的偏微分的均方根 3:η是随时间变化的参数 注释1:gradient究竟是大还是小,是比较得出的,所以用gradient➗之前参数得出的所
相关文章
相关标签/搜索