00-03Gradient descent梯度下降

1、把大象关进冰箱的第三步 回顾一下,ML的第三步---找出loss最小的function---此处用θ(上标星)表示。 假如θ有两个变量θ1,θ2,从任意位置θ0处开始,计算偏微分,更新θ,如此不断更新很多次之后,就会找到loss最小的function。但这么做是不是有点简单粗暴呢,下面讲gradient descent三个小技巧。 Tip1:tuning your learning rate
相关文章
相关标签/搜索