机器学习(李宏毅)lecture02学习笔记(Gradient Descent)

Gradient Descent 优化问题 θ ∗ = a r g m i n θ L ( θ ) \theta^*=argmin_{\theta}L(\theta) θ∗=argminθ​L(θ) L : L: L:Loss Function θ : \theta: θ:参数 θ 0 : \theta^0: θ0:随机设定 θ 0 = [ θ 1 , θ 2 , . . . , θ n ] T
相关文章
相关标签/搜索