学习了「数据预处理」以后,让咱们一块儿来实现第一个预测模型——简单线性回归模型。html
简单线性回归是咱们接触最先,最多见的统计学分析模型之一。python
假定自变量 $x$与因变量 $y$ 线性相关,咱们能够根据一系列已知的 $(x,y)$ 数据,经过某种方法,拟合出一条直线 $ y = b_0 + b_1x$,并利用这条直线预测 $y$ 的值 。这种方法就叫做简单线性回归。git
那么咱们该如何去拟合出这条直线,才能使预测的结果最准确呢?github
经常使用的方法是最小二乘法。编程
课本上关于最小二乘法的概念困扰了我许久,后来无心中看到了它的英文——
Least Squares Method(LSM),平方...二乘...嗯,没毛病。dom
沿用这个名称能够理解,算是一种情怀或是传承,可是我想说一个事物的名称真的很重要,一个不恰当的名字会徒增不少理解上的负担。(好比区块链,取这么个名字就没想让通常群众理解,我第一次看见这个名字时的感受就是不知所云)机器学习
不吐槽了,最小二乘法,或者按个人翻译——平方和最小法,就是使得咱们经过观测获得的,已知的 $y_i$ 值与经过线性模型预测获得的 $y_p$ 之间的差值的平方之和
$$ Sum(y_i - y_p)^2 $$
最小。$\sqrt{Sum}$能够看作是 $(x_i,y_i)$ 与 $(x_i,y_p)$之间的距离之和。以 $Sum$ 最小做为评判依据显然是比较科学的。ide
根据这个条件,咱们能够求出直线的截距 $b_0$ 和斜率 $b_1$,获得咱们所需的线性模型。对求解过程有兴趣的同窗能够参考 CSDN - 普通最小二乘法的推导证实,固然,对 Python 来讲,咱们能够不关注具体实现的方式而直接去利用封装好的模型。时间和精力有限的同窗跟着往下走就好。函数
考虑到计算机可以进行大量重复计算,实际上咱们一般使用迭代的方法来求得参数。所谓迭代,即按照必定的步长逐个取参数值,并按某种原则(如最小二乘)评估用这些值进行拟合的合理性,最终选取最合适的参数值。学习
梯度降低法是一种常见的迭代方法,解决了当有多个自变量(特征)时往什么方向(选取什么方向的特征向量)迭代可以使函数值最终收敛到最小值的问题。
实际上,在输入特征较多的状况下,使用迭代法所需的计算量将远远小于解析法。
关于如何理解梯度降低法及其数学原理,参见个人文章「如何理解梯度降低法」。
以前,咱们搭建好了进行数据分析所需的 Python 环境(尚未搭建好的同窗能够参考个人文章「机器学习入坑指南(一):Python 环境搭建」), 接下来,咱们将实现简单线性回归模型。 建议你们和我同样使用 Jupyter Notebook,在后面你会更深入地感觉到它的魅力。
第一步固然就是上一篇文章讲解的数据预处理啦,代码以下:
# 导入须要的库 import pandas as pd import numpy as np import matplotlib.pyplot as plt # 读取数据 dataset = pd.read_csv('studentscores.csv') X = dataset.iloc[ : , : 1 ].values Y = dataset.iloc[ : , 1 ].values # 分割数据 from sklearn.cross_validation import train_test_split X_train, X_test, Y_train, Y_test = train_test_split( X, Y, test_size = 1/4, random_state = 0)
示例数据地址:GitHub - Avik-Jain/100-Days-Of-ML-Code/datasets
对这个过程不熟悉的,参考「机器学习入坑指南(二):数据预处理」
sklearn 库为咱们提供了许多经常使用的数学模型,极大地简化了咱们进行数据分析的步骤。咱们首先导入线性回归模型:
from sklearn.linear_model import LinearRegression
而后,用训练集的数据去训练(拟合)模型
regressor = LinearRegression() regressor = regressor.fit(X_train, Y_train)
通过训练后,regressor
便获得了拟合的结果,也就是直线的斜率和截距。
接下来,咱们使用拟合完的模型,根据测试集中的 X 值获得预测的 Y 值,这一步也很是简洁:
Y_pred = regressor.predict(X_test)
为了直观地表达模型拟合的效果,咱们对上面的数据分析结果进行可视化。
还记得第一步中咱们导入的 matplotlib.pyplot
吗?这是专门提供可视化的一个模块,提供了 Matlab 风格的编程接口(呃,我并不擅长 Matlab)。
这里咱们使用它提供的两个方法,一个是 scatter
,用来画点,另外一个是 plot
,用来画线。固然这只是简单的用法,想进一步了解,参考 gitbooks - Pyplot 教程 。
# 绘出数据点,用红色表示 plt.scatter(X_train , Y_train, color = 'red') # 绘出拟合的直线,用蓝色表示 plt.plot(X_train , regressor.predict(X_train), color ='blue') plt.show()
在 Jupyter Notebook 中输入上面的代码,可视化的结果如图
同理,可视化测试集,输入如下代码
plt.scatter(X_test , Y_test, color = 'red') plt.plot(X_test , regressor.predict(X_test), color ='blue') plt.show()
结果如图
注意虽然绘制直线时使用的参数不同,但直线是同一条直线,只是选取了不一样的点。能够看出,预测的结果与实际的结果具备必定的一致性。
简单线性回归适用于使用一元特征来预测数值的情形。在下一篇文章里,咱们将讨论多元线性回归。
欢迎关注 Evan 的博客