机器学习notes 之 梯度下降

1.问题背景 在学习 逻辑回归算法 和 GBDT算法 等过程中,总是会碰见对损失函数用梯度下降的方法求最小值; (梯度下降的方法非常重要,因为很多模型的损失函数求最小值并没有直接的数学解析解,如果能用数学解析解求最小值的损失函数,用梯度下降的也能求解最小值,来goodness得到模型。可以说梯度下降是机器学习的基石,也是人工智能的基石) 所以,损失函数到底长什么样子?能不能可视化? 梯度下降的过程
相关文章
相关标签/搜索