普通最小二乘法的推导证实(转载)

前言

        普通最小二乘法(ordinary least squares, OLS)是线性回归预测问题中一个很重要的概念,在 Introductory Econometrics A Modern Approach (Fourth Edition) 第2章 简单回归模型 中,花了很详细的篇幅对此做出介绍。应聘数据挖掘岗位,就有考到对普通最小二乘法的推导证实。最小二乘法十分有用,例如能够用来作推荐系统资金流动预测等。函数

推导证实

(1) 公式推导

(2) 求和性质

        求和性质,具体能够参考Introductory Econometrics A Modern Approach (Fourth Edition) 一书(计量经济学导论,第4版,杰弗里·M·伍德里奇 著)的附录Aspa

(3) 通常形式

        有了上述推导证实,普通最小二乘法通常形式能够写成(字母盖小帽表示估计值,具体参考应用几率统计):it

重要概念

        接下来简单地介绍几个重要概念,并在下一章节给出最小二乘法的无偏估计数据挖掘

        记第次观测残差(residual)是yi 的实际值与其拟合值之差:io

        

        其中SST=SSE+SSR。ast

        拟合优度,有时又称“断定系数”,回归的R2R-squared),用来判断直线拟合效果:变量

        当R2 = 1时称为完美拟合,当R2 = 1时称为糟糕拟合,最理想的观测是,第次状况 残差u=0im

        事实上,R2不因的单位变化而变化。统计

        零条件均值,指给定解释变量的任何值,偏差的指望值为零。换言之,即 E(u|x)=0数据

无偏估计

        咱们追求零条件均值,获得OLS 估计量的无偏估计:

        其中,

        如今咱们能够看到,β1 的估计量等于整体斜率β1 加上偏差 { u1, u2, ..., un }的一个线性组合。

“线性”含义

        线性回归问题中,“线性”的含义是指被估计参数β1 β2 是线性相关的,而不关心解释变量与被解释变量以何种形式出现,例如y = kx + b,log(y) = kx + b,log(y) = klog(x) + b,etc下面列举一些经常使用的曲线方程:

一、双曲线 1/y = a + b/x

令y'=1/y,x'=1/x,则有y'=a+bx'

二、幂函数曲线y=axb

令y'=lny,x'=lnx,a'=lna,则有y'=a'  +bx'

三、指数函数曲线y=aebx

令y'=lny,x'=x,a'=a,则有y'=a'+b  x'

四、负指数函数曲线y=aeb/x(同上)

五、对数函数y=a+blnx

令y'=y,x'=lnx,则有y'=a+bx'

六、S型(Logistic,逻辑斯蒂回归)曲线y=K/(1+Ae-λx)

令y'=ln((K-y)/y),a=lnA,则有y'=a-λx

多重线性回归

        多重回归研究的是变量与可控变量x1,x2,...,xk 之间的线性关系,假设

        根据线性代数,则有

        获得

        与普通最小二乘法推导证实类似,能够获得β 的最小二乘估计

        此处不做证实,具体可参考《应用几率统计 张国权 著》第九章 回归分析。

相关文章
相关标签/搜索