在介绍正则化以前,咱们先来介绍一下什么是欠拟合和过拟合问题。web
在线性回归问题中,像下面这个数据集,经过房屋面积去预测房价,咱们用一次函数去拟合数据:算法
发现拟合地并非很好,咱们称它为欠拟合。当咱们用二次多项式去拟合时:微信
咱们发现这个拟合的刚恰好。app
当咱们用高次多项式去拟合时:less
发现这个函数图像异常扭曲,虽然数据集所有拟合到图像上了,可是这个函数并不能很好地去预测你想要的结果。咱们称这种现象叫过拟合。机器学习
对于欠拟合,咱们能够增长函数的多项式的次数,可是对于过拟合来讲,咱们该如何解决这个问题呢?编辑器
有两种方法去解决过拟合的问题:函数
1.减小特征变量的数目:学习
手动选择哪一个特征变量要舍弃 ;flex
模型选择算法。
2.正则化:
保留全部的特征变量,可是减少量级或参数 θ_ j 的大小。
当训练集有许多有用的特征变量时正则化处理会很好。
那么如何进行正则化呢?
在过拟合问题中,每一个特征变量可能都对结果产生影响,例如预测房价,如今有不少特征变量:大小,楼层,卧室数目等等……。这些特征都会对房价的最终结果产生影响,虽然有些特征产生的影响很小,可是要想结果预测准确,咱们须要保留全部特征变量,这时候咱们就要考虑代价函数。
线性回归的代价函数为:
观察咱们训练的模型对数据集拟合的好很差,就要让代价函数最小,同时为了保留全部的特征,那么就能够给参数 θ 增长一个大的惩罚,例如:
这样要使代价函数最小,参数 θ_3 和 θ_4 就应该很小,由于它们的惩罚很大。当参数 θ_3 和 θ_4 很小时,在多项式中它们所在的那些项对总体影响就很小了。这种方法就是正则化(Regularization)解决过拟合问题。
要想正则化全部的参数,就能够按照下列公式:
其中 λ 又称正则化参数(regularization parameter),它的目标是平衡更好地拟合数据和保持参数尽可能最小这二者之间的关系。
ps. 本篇文章是根据吴恩达机器学习课程整理的学习笔记。若是想要一块儿学习机器学习,能够关注微信公众号「SuperFeng」,期待与你的相遇。