机器学习理论笔记(1)

线性模型和最小二乘法

Given input: X T = ( X 1 , X 2 , , X p )
Predict output: Y
Via:

(1.1) Y ^ = β 0 ^ j = 1 p X j β j ^

β 0 ^ 表示截断(intercept)or 偏差(bias)
为方便起见,我们让 X 中包含常量 1 ,那么就有
(1.2) Y ^ = X T β ^

对于输出输出对 ( x , y ) 的最小二乘方法是:
(1.3) R S S ( β ) = i = 1 N ( y i x i T β ) 2

那么求解次最小二乘问题的解是:
(1.4) β ^ = ( X T X ) 1 X T y

分类问题

这里写图片描述
参考图片中线性分类模型,我们规定两部分函数值(蓝色=0,橙色=1)。用线性回归模型来拟合,决策边界线是 x T β ^ = 0.5 ,把所有的点分成0,1两类,线的一侧为0,另一侧为1,由已知点极小化分类误差 R S S ( β ) 可以得到唯一一条直线,然后对整个空间进行分类。 这种回归分类方法简单但是适应性差。