R语言caret包的学习(一)--数据预处理

caret包(Classification and Regression Training)是一系列函数的集合,它试图对建立预测模型的过程进行流程化。本系列将就数据预处理、特征选择、抽样、模型调参等进行介绍学习。html

本文将就caret包中的数据预处理部分进行介绍学习。主要包括如下函数:model.matrix(),dummyVars(),nearZeroVar(),findCorrelation(),findLinearCombos(),preProcess(),classDist(),featurePlot()git

建立虚拟变量

建立虚拟变量的两个主要函数:model.matrix , dummyVarsgithub

model.matrix()

 model.matrix(object, data = environment(object), contrasts.arg = NULL, xlev = NULL, ...) bootstrap

其实,主要参数为object,一个公式;data就是引用的数据咯函数

这里,式子中 ~后能够理解为要展开的数据(其实也能够有只有一个因子水平的数据,从而便于在展开数据的同时,cbind其余列的数据,从而获得接下来分析用到的数据),结果返回的是matrix类型学习

如上所示,有3个因子水平的a被展开成2列,其余一列被省掉,减小了多重共线性的困扰。可是,没搞明白,intercept是怎么得出来的?????spa

dummyVars()

 dummyVars(formula, data, sep = ".", levelsOnly = FALSE, fullRank = FALSE, ...) .net

其用法跟model.matrix差很少,主要参数依旧是formula和data翻译

不一样的是3d

能够看出两点不一样了:1. 须要调用predict函数才能显示矩阵   2. 是对全部level进行展开

此外,dummyVars还能够生成交互的展开

固然,还能够经过 sep = ";" 将a;1的形式,   levelsOnly = TRUE 将a.1改为1, 但a.1:b.1改为1:1  不行 报错 情理之中,由于这样1:1的话就没有辨识度了,只有level是惟一不重复的,才能够如愿。

注意:由于dummyVars展开的没有截距(intercept),而且每一个因子水平都有对应的虚拟变量,因此这些参数对于某些模型多是不可用的,例如lm等

 

零方差和近似零方差特征变量

识别清除近似零方差的特征变量的缘由: 

  • 在某些状况下,数据产生机制只建立具备单一值的特征变量(例如零方差特征变量)。这对于大多数模型(不包括树模型)来讲,这可能形成模型的破坏,或者数据拟合的不稳定。
  • 一样的,特征变量中可能有一些出现频率很是低的惟一值,当这样的数据使用交叉验证(cross-validation)或自助法(bootstrap)抽样或一些样本可能对模型有过分影响的时候,这些特征变量可能变成零方差的特征变量

识别此种特征变量的方法:

  • 最大频率数值的频数比上第二频率数值的频数(称做频数比率(frequency ratio)),对于平衡的特征变量其值接近1,对于高度不平衡的数据其值会很是大
  • 惟一值比例就是惟一值的个数除以样本的总数再乘以100, 它随着数据粒度的增大而几近于0。 

若是频数比率大于预先设定的阈值,而且惟一值的比例小于一个阈值,咱们能够认为这个特征变量为近似零方差。 

caret包中提供了函数:nearZeroVar()

 nearZeroVar(x, freqCut = 95/5, uniqueCut = 10, saveMetrics = FALSE, names = FALSE, foreach = FALSE, allowParallel = TRUE) 

参数解释:

  • x 是一个数值型向量、矩阵或data frame,freqCut是频数比率阈值,uniqueCut是惟一值比例阈值
  • saveMetrics是一个逻辑值,false时返回的是近零特征的位置,true时,返回特征信息的data frame
  • name 逻辑值,false时,返回列的索引,true时返回列的名字
  • foreach 是否调用foreach包,若为ture,将使用更少的内存
  • allowPatallel 是否经过foreach包进行并行计算,若为true,将占用更多内存,但执行时间更短

返回的参数解释:

freqRatio 频数比率  percentUnique 惟一值比率   zeroVar 是否仅有一个值   nzv 是不是近零方差特征

清除近零方差特征变量:

 

识别相关的特征变量

有些模型依赖与相关的特征变量(像偏最小二乘法(pls,partial least-squares regression)),而有些模型可以得益于变量之间的相关性减小。

 findCorrelation(x, cutoff = 0.9, verbose = FALSE, names = FALSE, exact = ncol(x) < 100) 

参数解释:

  • x 是一个相关性矩阵
  • cutoff 是相关性绝对值的阈值
  • verbose 是否显示details
  • names 是否返回列名。false时,返回列的索引
  • exact 逻辑值,平均相关性是否在每一步从新计算。当维数比较大时,exact calculations将清除更少的特征,且比较慢

 

线性相关性

函数findLinearCombos使用QR分解来枚举线性组合的集合(若是存在的话)

 findLinearCombos(x)   只有一个参数x,x是一个数值矩阵

返回一个列表,含有两项:

  • linearCombos  如有线性相关的,显示列索引向量
  • remove 为去除线性相关性,应去除的列索引

preProcess函数

preProcess函数能够对特征变量施行不少操做,包括中心化和标准化。preProcess函数每次操做都估计所须要的参数,而且由predict.preProcess 应用于指定的数据集。

preProcess(x, method = c("center", "scale"), thresh = 0.95,     
                pcaComp = NULL, na.remove = TRUE, k = 5, 
                knnSummary = mean, outcome = NULL, fudge = 0.2, 
                numUnique = 3, verbose = FALSE, freqCut = 95/5, 
                uniqueCut = 10, cutoff = 0.9, ...)        

x 是一个矩阵或数据框。非数值型的变量是被容许的,可是将被忽略

method 处理类型的字符串向量。常见的几种以下:

  • center 中心化,即减去自变量的平均值
  • scale  标准化,即除以自变量的标准差,变换后值域为[0,1]。若是新样本值大于或小于训练集中值,则值将超出此范围。
  • BoxCox 变换,用于自变量,简单,与幂变换同样有效
  • YeoJohnson 与BoxCox 变换类似,可是它的自变量能够是0或负数,而BoxCox只能是正数
  • expoTrans 指数变换(exponential transformations)也能够被用于正数或负数
  • zv  识别并清除掉只含有一个值的数值型自变量
  • nzv 至关于应用nearZeroVar,清除近零方差的自变量
  • corr 寻找并过滤掉具备高相关性的自变量,参见findCorrelation

这些方法的运行顺序是:zero-variance filter, near-zero variance filter, correlation filter, Box-Cox/Yeo-Johnson/exponential transformation, centering, scaling, range, imputation, PCA, ICA then spatial sign. 

thresh  PCA的累积方差比

其实,preProcess的功能很强大,听说还能够对数据进行插补缺失值(K近邻,袋装树bagged tree)

笔者还未深刻研究,在此不一一叙述

类别距离计算

classDist 函数计算训练集的类别质心和协方差矩阵,从而肯定样本与每一个类别质心的马氏距离。

 classDist(x, y, groups = 5, pca = FALSE, keep = NULL, ...) 

 predict(object, newdata, trans = log, ...)  默认的距离取对数,可是这能够经过predict.classDist的参数trans来改变

可见,上图关于对角线对称,且将test分为两类,蓝色一类,红色一类。

数据描述性可视化

caret包中的可视化是对lattice包做图的集成。主要函数是featurePlot

 featurePlot(x, y, plot = “strip”, labels = c("Feature", ""), ...) 

x 为一个连续数值的矩阵或data frame

y 是一个代表类别的因子变量

plot 是做图的种类。对于分类有: box, strip, density, pairs,ellipse,对于回归有pairs,scatter。默认状况下,当y为因子,则为strip,不然为scatter  (注意:若用ellipse做图,需加载ellipse包)

还能够设定其余的可传递给lattice的选项。常见的有

  • layout=c(3,1) 将图设置为3行1列;
  • auto.key = list(columns = 3)) 将图例置于图顶,并以3列摆开

 

参考:

 http://topepo.github.io/caret/pre-processing.html其中文翻译见此

相关文章
相关标签/搜索