什么是过拟合?
在训练假设函数模型h时,为了让假设函数总能很好的拟合样本特征对应的真实值y,从而使得咱们所训练的假设函数缺少泛化到新数据样本能力。app
过拟合会在变量过多同时过少的训练时发生,咱们有两个选择,一是减小特征的数量,二是正则化,今天咱们来重点来讨论正则化,它经过设置惩罚项让参数θ足够小,要让咱们的代价函数足够小,就要让θ足够小,因为θ是特征项前面的系数,这样就使特征项趋近于零。岭回归与Lasso就是经过在代价函数后增长正则化项。机器学习
多元线性回归损失函数:ide
岭回归回归代价函数:函数
咱们从矩阵的角度来看。机器学习的核心在在于求解出θ使J(θ)最小。怎样找到这个θ,经典的作法是使用梯度降低经过屡次迭代收敛到全局最小值,咱们也能够用标准方程法直接一次性求解θ的最优值。当回归变量X不是列满秩时, XX'的行列式接近于0,即接近于奇异,也就是某些列之间的线性相关性比较大时,传统的最小二乘法就缺少稳定性,模型的可解释性下降。所以,为了解决这个问题,须要正则化删除一些相关性较强特征。学习
标准方程法:
加上正则化后:spa
这里,λ>=0是控制收缩量的复杂度参数:λ的值越大,收缩量越大,共线性的影响愈来愈小。在不断增大惩罚函数系数的过程当中,画出估计参数0(λ)的变化状况,即为岭迹。经过岭迹的形状来判断咱们是否要剔除掉该特征(例如:岭迹波动很大,说明该变量参数有共线性)。code
步骤:1.首先要对数据进行一些预处理,尽可能把保持全部特征在一个范围内,使用特征缩放和均值归一化来处理特征值是颇有必要的,不然,不一样特征的特征值大小是没有比较性的。
2.其次构建惩罚函数,针对不一样的λ,画出岭迹图。
3.根据岭迹图,选择要剔除那些特征。blog
将岭系数绘制为正则化的函数
本例显示了共线性对估计量系数的影响。岭回归是本例中使用的估计量。 每种颜色表示系数矢量的不一样特征,而且这是做为正则化参数的函数显示的。这个例子还显示了将岭回归应用于高度病态的基质的有用性。对于这样的矩阵,目标变量的轻微变化会致使计算权重的巨大差别。在这种状况下,设置必定的正则化(λ)来减小这种变化(噪音)是有用的。当λ很大时,正则化效应支配平方损失函数,而且系数趋于零。在路径的末尾,因为λ趋于零,而且解决方案倾向于普通最小二乘,因此系数显示出大的振荡。 在实践中,须要调整λ以使二者之间保持平衡。ci
import numpy as np import matplotlib.pyplot as plt from sklearn import linear_model #X为一个10*10的矩阵 X = 1. / (np.arange(1, 11) + np.arange(0, 10)[:, np.newaxis]) y = np.ones(10) ############################################################################## #设置不一样的lambda和参数 n_lambda = 200 lambda = np.logspace(-10, -2, n_lambda) coefs = [] for a in lambda: ridge = linear_model.Ridge(lambda=a, fit_intercept=False) ridge.fit(X, y) coefs.append(ridge.coef_) # ############################################################################# #显示绘制结果 ax = plt.gca() ax.plot(lambda, coefs) ax.set_xscale('log') ax.set_xlim(ax.get_xlim()[::-1]) # reverse axis plt.xlabel(r'$\lambda$') plt.ylabel('weights') plt.title('Ridge coefficients as a function of the regularization') plt.axis('tight') plt.show()
结果:get
感谢您的阅读,若是您喜欢个人文章,欢迎关注我哦