sklearn调包侠之线性回归

线性回归原理 如图所示,这是一组二维的数据,我们先想想如何通过一条直线较好的拟合这些散点了?直白的说:尽量让拟合的直线穿过这些散点(这些点离拟合直线很近)。 目标函数(成本函数) 要使这些点离拟合直线很近,我们需要用数学公式来表示: 梯度下降法 之前在讲解回归时,是通过求导获取最小值,但必须满足数据可逆,这里通常情况下使用梯度下降法,也就是按着斜率方向偏移。详细可看这篇文章(https://www
相关文章
相关标签/搜索