岭回归——减小过拟合问题

什么是过拟合?
在训练假设函数模型h时,为了让假设函数总能很好的拟合样本特征对应的真实值y,从而使得咱们所训练的假设函数缺少泛化到新数据样本能力。app

怎样解决过拟合

过拟合会在变量过多同时过少的训练时发生,咱们有两个选择,一是减小特征的数量,二是正则化,今天咱们来重点来讨论正则化,它经过设置惩罚项让参数θ足够小,要让咱们的代价函数足够小,就要让θ足够小,因为θ是特征项前面的系数,这样就使特征项趋近于零。岭回归与Lasso就是经过在代价函数后增长正则化项。机器学习

多元线性回归损失函数:ide

岭回归——减小过拟合问题

岭回归回归代价函数:
岭回归——减小过拟合问题函数

岭回归的原理

咱们从矩阵的角度来看。机器学习的核心在在于求解出θ使J(θ)最小。怎样找到这个θ,经典的作法是使用梯度降低经过屡次迭代收敛到全局最小值,咱们也能够用标准方程法直接一次性求解θ的最优值。当回归变量X不是列满秩时, XX'的行列式接近于0,即接近于奇异,也就是某些列之间的线性相关性比较大时,传统的最小二乘法就缺少稳定性,模型的可解释性下降。所以,为了解决这个问题,须要正则化删除一些相关性较强特征。学习

标准方程法:
岭回归——减小过拟合问题
加上正则化后:
岭回归——减小过拟合问题spa

这里,λ>=0是控制收缩量的复杂度参数:λ的值越大,收缩量越大,共线性的影响愈来愈小。在不断增大惩罚函数系数的过程当中,画出估计参数0(λ)的变化状况,即为岭迹。经过岭迹的形状来判断咱们是否要剔除掉该特征(例如:岭迹波动很大,说明该变量参数有共线性)。code


步骤:1.首先要对数据进行一些预处理,尽可能把保持全部特征在一个范围内,使用特征缩放和均值归一化来处理特征值是颇有必要的,不然,不一样特征的特征值大小是没有比较性的。
2.其次构建惩罚函数,针对不一样的λ,画出岭迹图。
3.根据岭迹图,选择要剔除那些特征。blog

一个sckit-learn的example

将岭系数绘制为正则化的函数
本例显示了共线性对估计量系数的影响。岭回归是本例中使用的估计量。 每种颜色表示系数矢量的不一样特征,而且这是做为正则化参数的函数显示的。这个例子还显示了将岭回归应用于高度病态的基质的有用性。对于这样的矩阵,目标变量的轻微变化会致使计算权重的巨大差别。在这种状况下,设置必定的正则化(λ)来减小这种变化(噪音)是有用的。当λ很大时,正则化效应支配平方损失函数,而且系数趋于零。在路径的末尾,因为λ趋于零,而且解决方案倾向于普通最小二乘,因此系数显示出大的振荡。 在实践中,须要调整λ以使二者之间保持平衡。ci

import numpy as np
import matplotlib.pyplot as plt
from sklearn import linear_model

#X为一个10*10的矩阵
X = 1. / (np.arange(1, 11) + np.arange(0, 10)[:, np.newaxis])
y = np.ones(10)

##############################################################################
#设置不一样的lambda和参数

n_lambda = 200
lambda = np.logspace(-10, -2, n_lambda)

coefs = []
for a in lambda:
    ridge = linear_model.Ridge(lambda=a, fit_intercept=False)
    ridge.fit(X, y)
    coefs.append(ridge.coef_)

# #############################################################################
#显示绘制结果

ax = plt.gca()

ax.plot(lambda, coefs)
ax.set_xscale('log')
ax.set_xlim(ax.get_xlim()[::-1])  # reverse axis
plt.xlabel(r'$\lambda$')
plt.ylabel('weights')
plt.title('Ridge coefficients as a function of the regularization')
plt.axis('tight')
plt.show()

结果:
岭回归——减小过拟合问题get


感谢您的阅读,若是您喜欢个人文章,欢迎关注我哦

10

相关文章
相关标签/搜索