【R语言进行数据挖掘】回归分析

一、线性回归
线性回归就是使用下面的预测函数预测将来观测量:git

其中,x1,x2,...,xk都是预测变量(影响预测的因素),y是须要预测的目标变量(被预测变量)。函数

线性回归模型的数据来源于澳大利亚的CPI数据,选取的是2008年到2011年的季度数据。3d

rep函数里面的第一个参数是向量的起始时间,从2008-2010,第二个参数表示向量里面的每一个元素都被4个小时间段。

year <- rep(2008:2010, each=4)
quarter <- rep(1:4, 3)
cpi <- c(162.2, 164.6, 166.5, 166.0,orm

  • 166.2, 167.0, 168.6, 169.5,
  • 171.0, 172.1, 173.3, 174.0)blog

    plot函数中axat=“n”表示横坐标刻度的标注是没有的

    plot(cpi, xaxt="n", ylab="CPI", xlab="")事件

    绘制横坐标轴

    axis(1, labels=paste(year,quarter,sep="Q"), at=1:12, las=3)
    接下来,观察CPI与其余变量例如‘year(年份)’和‘quarter(季度)’之间的相关关系。ip

cor(year,cpi)
cor(quarter,cpi)
输出以下:ci

cor(quarter,cpi)
[1] 0.3738028
cor(year,cpi)
[1] 0.9096316
cor(quarter,cpi)
[1] 0.3738028
由上图可知,CPI与年度之间的关系是正相关,而且很是紧密,相关系数接近1;而它与季度之间的相关系数大约为0.37,只是有着微弱的正相关,关系并不明显。文档

而后使用lm()函数创建一个线性回归模型,其中年份和季度为预测因素,CPI为预测目标。it

创建模型fit

fit <- lm(cpi ~ year + quarter)
fit
输出结果以下:

Call:
lm(formula = cpi ~ year + quarter)

Coefficients:
(Intercept) year quarter
-7644.488 3.888 1.167

由上面的输出结果能够创建如下模型公式计算CPI:

其中,c0、c1和c2都是模型fit的参数分别是-7644.48八、3.888和1.167。所以2011年的CPI能够经过如下方式计算:

(cpi2011 <-fit$coefficients[[1]] + fit$coefficients[[2]]*2011 +

  • fit$coefficients[[3]]*(1:4))
    输出的2011年的季度CPI数据分别是174.441七、175.608三、176.7750和177.9417。

模型的具体参数能够经过如下代码查看:

查看模型的属性

attributes(fit)
$names
[1] "coefficients" "residuals" "effects" "rank" "fitted.values"
[6] "assign" "qr" "df.residual" "xlevels" "call"
[11] "terms" "model"
$class
[1] "lm"

模型的参数

fit$coefficients

观测值与拟合的线性模型之间的偏差,也称为残差

residuals(fit)
1 2 3 4 5 6 7
-0.57916667 0.65416667 1.38750000 -0.27916667 -0.46666667 -0.83333333 -0.40000000
8 9 10 11 12
-0.66666667 0.44583333 0.37916667 0.41250000 -0.05416667
除了将数据代入创建的预测模型公式中,还能够经过使用predict()预测将来的值。

输入预测时间

data2011 <- data.frame(year=2011, quarter=1:4)
cpi2011 <- predict(fit, newdata=data2011)

设置散点图上的观测值和预测值对应点的风格(颜色和形状)

style <- c(rep(1,12), rep(2,4))
plot(c(cpi, cpi2011), xaxt="n", ylab="CPI", xlab="", pch=style, col=style)

标签中sep参数设置年份与季度之间的间隔

axis(1, at=1:16, las=3,

  • labels=c(paste(year,quarter,sep="Q"), "2011Q1", "2011Q2", "2011Q3", "2011Q4"))
    预测结果以下:

上图中红色的三角形就是预测值。

二、Logistic回归

Logistic回归是经过将数据拟合到一条线上并根据简历的曲线模型预测事件发生的几率。能够经过如下等式来创建一个Logistic回归模型:

其中,x1,x2,...,xk是预测因素,y是预测目标。令

,上面的等式被转换成:

使用函数glm()并设置响应变量(被解释变量)服从二项分布(family='binomial,'link='logit')创建Logistic回归模型,更多关于Logistic回归模型的内容能够经过如下连接查阅:

· R Data Analysis Examples - Logit Regression
· 《LogisticRegression (with R)》
三、广义线性模型

广义线性模型(generalizedlinear model, GLM)是简单最小二乘回归(OLS)的扩展,响应变量(即模型的因变量)能够是正整数或分类数据,其分布为某指数分布族。其次响应变量指望值的函数(链接函数)与预测变量之间的关系为线性关系。所以在进行GLM建模时,须要指定分布类型和链接函数。这个创建模型的分布参数包括binomaial(两项分布)、gaussian(正态分布)、gamma(伽马分布)、poisson(泊松分布)等。

广义线性模型能够经过glm()函数创建,使用的数据是包‘TH.data’自带的bodyfat数据集。

data("bodyfat", package="TH.data")
myFormula <- DEXfat ~ age + waistcirc + hipcirc + elbowbreadth + kneebreadth

设置响应变量服从正态分布,对应的链接函数服从对数分布

bodyfat.glm <- glm(myFormula, family = gaussian("log"), data = bodyfat)

预测类型为响应变量

pred <- predict(bodyfat.glm, type="response")
plot(bodyfat$DEXfat, pred, xlab="Observed Values", ylab="Predicted Values")
abline(a=0, b=1)
预测结果检验以下图所示:

由上图可知,模型虽然也有离群点,可是大部分的数据都是落在直线上或者附近的,也就说明模型创建的比较好,能较好的拟合数据。

四、非线性回归

若是说线性模型是拟合拟合一条最靠近数据点的直线,那么非线性模型就是经过数据拟合一条曲线。在R中可使用函数nls()创建一个非线性回归模型,具体的使用方法能够经过输入'?nls()'查看该函数的文档。

相关文章
相关标签/搜索