CART回归树和CART分类树的创建算法大部分是相似的,因此这里咱们只讨论CART回归树和CART分类树的创建算法不一样的地方。
首先,咱们要明白,什么是回归树,什么是分类树。html
若是样本输出是离散值,那么这是一颗分类树。 若是果样本输出是连续值,那么那么这是一颗回归树。
1)连续值的处理方法不一样
2)决策树创建后作预测的方式不一样。
对于连续值的处理,咱们知道CART分类树采用的是用基尼系数的大小来度量特征的各个划分点的优劣状况,这比较适合分类模型。算法
可是对于回归模型,咱们使用了常见的和方差的度量方式。机器学习
CART回归树的度量目标是,对于任意划分特征A,对应的任意划分点s两边划分红的数据集D1和D2,求出使D1和D2各自集合的均方差最小,同时D1和D2的均方差之和最小所对应的特征和特征值划分点。ide
表达式为:函数
其中,c1为D1数据集的样本输出均值,c2为D2数据集的样本输出均值。 post
对于决策树创建后作预测的方式,上面讲到了CART分类树采用叶子节点里几率最大的类别做为当前节点的预测类别。而回归树输出不是类别,它采用的是用最终叶子的均值或者中位数来预测输出结果。学习
除了上面提到了之外,CART回归树和CART分类树的创建算法和预测没有什么区别。测试
def regLeaf(data_Y): #用于计算指定样本中标签均值表示回归y值 return np.mean(data_Y)
def regErr(data_Y): #使用均方偏差做为划分依据 return np.var(data_Y)*data_Y.size #np.var是求解平均偏差,咱们这里须要总方差进行比较
def binSplitDataSet(data_X,data_Y,fea_axis,fea_val): #进行数据集划分 dataGtIdx = np.where(data_X[:,fea_axis]>fea_val) dataLgIdx = np.where(data_X[:,fea_axis]<=fea_val) return data_X[dataGtIdx],data_Y[dataGtIdx],data_X[dataLgIdx],data_Y[dataLgIdx]
def chooseBestSplit(data_X,data_Y,leafType=regLeaf,errType=regErr,ops=(1,4)): """ 选取的最好切分方式,使用回调方式调用叶节点计算和偏差计算,函数中含有预剪枝操做 :param data_X: 传入数据集 :param data_Y: 传入标签值 :param leafType: 要调用计算的叶节点值 --- 虽然灵活,可是不必 :param errType: 要计算偏差的函数,这里是均方偏差 --- 虽然灵活,可是不必 :param ops: 包含了两个重要信息, tolS tolN用于控制函数的中止时机,tolS是允许的偏差降低值,偏差小于则再也不切分,tosN是切分的最少样本数 :return: """ m,n = data_X.shape tolS = ops[0] tolN = ops[1] #以前都是将判断是否继续划分子树放入createTree方法中,这里能够提到chooseBestSplit中进行判别。 #固然能够放入createTree方法中处理 if np.unique(data_Y).size == 1: #1.若是标签值所有相同,则返回特征None表示不须要进行下一步划分,返回叶节点 return None,leafType(data_Y) #遍历获取最优特征和特征值 TosErr = errType(data_Y) #获取所有数据集的偏差,后面计算划分后两个子集的总偏差,若是偏差降低小于tolS,则不进行划分,返回该叶子节点便可(预剪枝操做) bestErr = np.inf bestFeaIdx = 0 #注意:这里两个咱们设置为0,而不是-1,由于咱们必须保证能够取到一个特征(后面循环可能一直continue),咱们须要在后面进行额外处理 bestFeaVal = 0 for i in range(n): #遍历全部特征 for feaval in np.unique(data_X[:,i]): dataGt_X,dataGt_Y,dataLg_X,dataLg_Y = binSplitDataSet(data_X,data_Y,i,feaval) #数据集划分 # print(dataGt_X.shape,dataLg_X.shape) if dataGt_X.shape[0] < tolN or dataLg_X.shape[0] < tolN: #不符合最小数据集,不进行计算 continue concErr = errType(dataLg_Y)+errType(dataGt_Y) # print(concErr) if concErr < bestErr: bestFeaIdx = i bestFeaVal = feaval bestErr = concErr #2.若是最后求解的偏差,小于咱们要求的偏差距离,则不进行下一步划分数据集(预剪枝) if (TosErr - bestErr) < tolS: return None,leafType(data_Y) #3.若是咱们上面的数据集自己较小,则不管如何切分,数据集都<tolN,咱们就须要在这里再处理一遍,进行一下判断 dataGt_X, dataGt_Y, dataLg_X, dataLg_Y = binSplitDataSet(data_X, data_Y, bestFeaIdx, bestFeaVal) # 数据集划分 if dataGt_X.shape[0] < tolN or dataLg_X.shape[0] < tolN: # 不符合最小数据集,不进行计算 return None,leafType(data_Y) return bestFeaIdx,bestFeaVal #正常状况下的返回结果
def createTree(data_X,data_Y,leafType=regLeaf,errType=regErr,ops=(1,4)): #创建回归树 feaIdx,feaVal = chooseBestSplit(data_X,data_Y,leafType,errType,ops) if feaIdx == None: #是叶子节点 return feaVal #递归建树 myTree = {} myTree['feaIdx'] = feaIdx myTree['feaVal'] = feaVal dataGt_X, dataGt_Y, dataLg_X, dataLg_Y = binSplitDataSet(data_X, data_Y, feaIdx, feaVal) # 数据集划分 myTree['left'] = createTree(dataGt_X,dataGt_Y,leafType,errType,ops) myTree['right'] = createTree(dataLg_X,dataLg_Y,leafType,errType,ops) return myTree
import numpy as np def loadDataSet(filename): dataSet = np.loadtxt(filename) m,n = dataSet.shape data_X = dataSet[:,0:n-1] data_Y = dataSet[:,n-1] return data_X,data_Y
data_X,data_Y = loadDataSet("ex0.txt") print(createTree(data_X,data_Y))
{'feaIdx': 1, 'feaVal': 0.39435, 'left': { 'feaIdx': 1, 'feaVal': 0.582002, 'left': { 'feaIdx': 1, 'feaVal': 0.797583, 'left': 3.9871632, 'right': 2.9836209534883724 }, 'right': 1.980035071428571 }, 'right': { 'feaIdx': 1, 'feaVal': 0.197834, 'left': 1.0289583666666666, 'right': -0.023838155555555553 } }
import numpy as np def loadDataSet(filename): dataSet = np.loadtxt(filename) m,n = dataSet.shape data_X = dataSet[:,0:n-1] data_Y = dataSet[:,n-1] return data_X,data_Y def regLeaf(data_Y): #用于计算指定样本中标签均值表示回归y值 return np.mean(data_Y) def regErr(data_Y): #使用均方偏差做为划分依据 return np.var(data_Y)*data_Y.size def binSplitDataSet(data_X,data_Y,fea_axis,fea_val): #进行数据集划分 dataGtIdx = np.where(data_X[:,fea_axis]>fea_val) dataLgIdx = np.where(data_X[:,fea_axis]<=fea_val) return data_X[dataGtIdx],data_Y[dataGtIdx],data_X[dataLgIdx],data_Y[dataLgIdx] def chooseBestSplit(data_X,data_Y,leafType=regLeaf,errType=regErr,ops=(1,4)): """ 选取的最好切分方式,使用回调方式调用叶节点计算和偏差计算,函数中含有预剪枝操做 :param data_X: 传入数据集 :param data_Y: 传入标签值 :param leafType: 要调用计算的叶节点值 --- 虽然灵活,可是不必 :param errType: 要计算偏差的函数,这里是均方偏差 --- 虽然灵活,可是不必 :param ops: 包含了两个重要信息, tolS tolN用于控制函数的中止时机,tolS是允许的偏差降低值,偏差小于则再也不切分,tosN是切分的最少样本数 :return: """ m,n = data_X.shape tolS = ops[0] tolN = ops[1] #以前都是将判断是否继续划分子树放入createTree方法中,这里能够提到chooseBestSplit中进行判别。 #固然能够放入createTree方法中处理 if np.unique(data_Y).size == 1: #1.若是标签值所有相同,则返回特征None表示不须要进行下一步划分,返回叶节点 return None,leafType(data_Y) #遍历获取最优特征和特征值 TosErr = errType(data_Y) #获取所有数据集的偏差,后面计算划分后两个子集的总偏差,若是偏差降低小于tolS,则不进行划分,返回该叶子节点便可(预剪枝操做) bestErr = np.inf bestFeaIdx = 0 #注意:这里两个咱们设置为0,而不是-1,由于咱们必须保证能够取到一个特征(后面循环可能一直continue),咱们须要在后面进行额外处理 bestFeaVal = 0 for i in range(n): #遍历全部特征 for feaval in np.unique(data_X[:,i]): dataGt_X,dataGt_Y,dataLg_X,dataLg_Y = binSplitDataSet(data_X,data_Y,i,feaval) #数据集划分 # print(dataGt_X.shape,dataLg_X.shape) if dataGt_X.shape[0] < tolN or dataLg_X.shape[0] < tolN: #不符合最小数据集,不进行计算 continue concErr = errType(dataLg_Y)+errType(dataGt_Y) # print(concErr) if concErr < bestErr: bestFeaIdx = i bestFeaVal = feaval bestErr = concErr #2.若是最后求解的偏差,小于咱们要求的偏差距离,则不进行下一步划分数据集(预剪枝) if (TosErr - bestErr) < tolS: return None,leafType(data_Y) #3.若是咱们上面的数据集自己较小,则不管如何切分,数据集都<tolN,咱们就须要在这里再处理一遍,进行一下判断 dataGt_X, dataGt_Y, dataLg_X, dataLg_Y = binSplitDataSet(data_X, data_Y, bestFeaIdx, bestFeaVal) # 数据集划分 if dataGt_X.shape[0] < tolN or dataLg_X.shape[0] < tolN: # 不符合最小数据集,不进行计算 return None,leafType(data_Y) return bestFeaIdx,bestFeaVal #正常状况下的返回结果 def createTree(data_X,data_Y,leafType=regLeaf,errType=regErr,ops=(1,4)): #创建回归树 feaIdx,feaVal = chooseBestSplit(data_X,data_Y,leafType,errType,ops) if feaIdx == None: #是叶子节点 return feaVal #递归建树 myTree = {} myTree['feaIdx'] = feaIdx myTree['feaVal'] = feaVal dataGt_X, dataGt_Y, dataLg_X, dataLg_Y = binSplitDataSet(data_X, data_Y, feaIdx, feaVal) # 数据集划分 myTree['left'] = createTree(dataGt_X,dataGt_Y,leafType,errType,ops) myTree['right'] = createTree(dataLg_X,dataLg_Y,leafType,errType,ops) return myTree data_X,data_Y = loadDataSet("ex0.txt") print(createTree(data_X,data_Y))
一棵树若是节点过多,表示该模型可能对数据进行了过拟合(使用测试集交叉验证法便可),这时就须要咱们进行剪枝处理,避免过拟合this
前面创建决策树过程当中,咱们已经进行了预剪枝操做。即设置的ops参数,包含了两个重要信息, tolS tolN用于控制函数的中止时机,tolS是允许的偏差降低值,偏差小于则再也不切分,tosN是切分的最少样本数。用于在创建决策树过程当中进行预剪枝操做。url
下面实例中,查看ops参数设置对剪枝的影响:
import numpy as np def loadDataSet(filename): dataSet = np.loadtxt(filename) m,n = dataSet.shape data_X = dataSet[:,0:n-1] data_Y = dataSet[:,n-1] return data_X,data_Y def regLeaf(data_Y): #用于计算指定样本中标签均值表示回归y值 return np.mean(data_Y) def regErr(data_Y): #使用均方偏差做为划分依据 return np.var(data_Y)*data_Y.size def binSplitDataSet(data_X,data_Y,fea_axis,fea_val): #进行数据集划分 dataGtIdx = np.where(data_X[:,fea_axis]>fea_val) dataLgIdx = np.where(data_X[:,fea_axis]<=fea_val) return data_X[dataGtIdx],data_Y[dataGtIdx],data_X[dataLgIdx],data_Y[dataLgIdx] def chooseBestSplit(data_X,data_Y,leafType=regLeaf,errType=regErr,ops=(1,4)): """ 选取的最好切分方式,使用回调方式调用叶节点计算和偏差计算,函数中含有预剪枝操做 :param data_X: 传入数据集 :param data_Y: 传入标签值 :param leafType: 要调用计算的叶节点值 --- 虽然灵活,可是不必 :param errType: 要计算偏差的函数,这里是均方偏差 --- 虽然灵活,可是不必 :param ops: 包含了两个重要信息, tolS tolN用于控制函数的中止时机,tolS是允许的偏差降低值,偏差小于则再也不切分,tosN是切分的最少样本数 :return: """ m,n = data_X.shape tolS = ops[0] tolN = ops[1] #以前都是将判断是否继续划分子树放入createTree方法中,这里能够提到chooseBestSplit中进行判别。 #固然能够放入createTree方法中处理 if np.unique(data_Y).size == 1: #1.若是标签值所有相同,则返回特征None表示不须要进行下一步划分,返回叶节点 return None,leafType(data_Y) #遍历获取最优特征和特征值 TosErr = errType(data_Y) #获取所有数据集的偏差,后面计算划分后两个子集的总偏差,若是偏差降低小于tolS,则不进行划分,返回该叶子节点便可(预剪枝操做) bestErr = np.inf bestFeaIdx = 0 #注意:这里两个咱们设置为0,而不是-1,由于咱们必须保证能够取到一个特征(后面循环可能一直continue),咱们须要在后面进行额外处理 bestFeaVal = 0 for i in range(n): #遍历全部特征 for feaval in np.unique(data_X[:,i]): dataGt_X,dataGt_Y,dataLg_X,dataLg_Y = binSplitDataSet(data_X,data_Y,i,feaval) #数据集划分 # print(dataGt_X.shape,dataLg_X.shape) if dataGt_X.shape[0] < tolN or dataLg_X.shape[0] < tolN: #不符合最小数据集,不进行计算 continue concErr = errType(dataLg_Y)+errType(dataGt_Y) # print(concErr) if concErr < bestErr: bestFeaIdx = i bestFeaVal = feaval bestErr = concErr #2.若是最后求解的偏差,小于咱们要求的偏差距离,则不进行下一步划分数据集(预剪枝) if (TosErr - bestErr) < tolS: return None,leafType(data_Y) #3.若是咱们上面的数据集自己较小,则不管如何切分,数据集都<tolN,咱们就须要在这里再处理一遍,进行一下判断 dataGt_X, dataGt_Y, dataLg_X, dataLg_Y = binSplitDataSet(data_X, data_Y, bestFeaIdx, bestFeaVal) # 数据集划分 if dataGt_X.shape[0] < tolN or dataLg_X.shape[0] < tolN: # 不符合最小数据集,不进行计算 return None,leafType(data_Y) return bestFeaIdx,bestFeaVal #正常状况下的返回结果 def createTree(data_X,data_Y,leafType=regLeaf,errType=regErr,ops=(1,4)): #创建回归树 feaIdx,feaVal = chooseBestSplit(data_X,data_Y,leafType,errType,ops) if feaIdx == None: #是叶子节点 return feaVal #递归建树 myTree = {} myTree['feaIdx'] = feaIdx myTree['feaVal'] = feaVal dataGt_X, dataGt_Y, dataLg_X, dataLg_Y = binSplitDataSet(data_X, data_Y, feaIdx, feaVal) # 数据集划分 myTree['left'] = createTree(dataGt_X,dataGt_Y,leafType,errType,ops) myTree['right'] = createTree(dataLg_X,dataLg_Y,leafType,errType,ops) return myTree
data_X,data_Y = loadDataSet("ex2.txt") print(createTree(data_X,data_Y,ops=(1,4)))
出现大量树分叉,过拟合
data_X,data_Y = loadDataSet("ex2.txt") print(createTree(data_X,data_Y,ops=(1000,4)))
拟合状态还不错。
data_X,data_Y = loadDataSet("ex2.txt") print(createTree(data_X,data_Y,ops=(10000,4)))
有点欠拟合。
后剪枝一般比预剪枝保留更多的分支,欠拟合风险小。可是后剪枝是在决策树构造完成后进行的,其训练时间的开销会大于预剪枝。
后剪枝是基于已经创建好的树,进行的叶子节点合并操做。
使用后剪枝方法须要将数据集分为测试集和训练集。经过训练集和参数ops使用预剪枝方法构建决策树。而后使用构建的决策树和测试集数据进行后剪枝处理
#开启后剪枝处理 def isTree(tree): return type(tree) == dict #是树的话返回字典,不然是数据 def getMean(tree): #获取当前树的合并均值REP---塌陷处理: 咱们对一棵树进行塌陷处理,就是递归将这棵树进行合并返回这棵树的平均值。 if isTree(tree['right']): tree['right'] = getMean(tree['right']) if isTree(tree['left']): tree['left'] = getMean(tree['left']) return (tree['left'] + tree['right'])/2 #返回均值 def prune(tree,testData_X,testData_Y): #根据决策树和测试集数据进行后剪枝处理,不能按照训练集进行后剪枝,由于建立决策树时预剪枝操做中已经要求子树偏差值小于根节点 #1.如果当测试集数据为空,则不须要后面的子树了,直接进行塌陷处理 if testData_X.shape[0] == 0: return getMean(tree) #2.若是当前测试集不为空,并且决策树含有左/右子树,则须要进入子树中进行剪枝操做---这里咱们先将测试集数据划分 if isTree(tree['left']) or isTree(tree['right']): TestDataGT_X,TestDataGT_Y,TestDataLG_X,TestDataLG_Y = binSplitDataSet(testData_X,testData_Y,tree['feaIdx'],tree['feaVal']) #3.根据子树进行下一步剪枝 if isTree(tree['left']): tree['left'] = prune(tree['left'],TestDataGT_X,TestDataGT_Y) #注意:这里是赋值操做,对树进行剪枝 if isTree(tree['right']): tree['right'] = prune(tree['right'],TestDataLG_X,TestDataLG_Y) #注意:这里是赋值操做,对树进行剪枝 #4.若是两个是叶子节点,咱们开始计算偏差,进行合并 if not isTree(tree['left']) and not isTree(tree['right']): #先划分测试集数据 TestDataGT_X,TestDataGT_Y,TestDataLG_X,TestDataLG_Y = binSplitDataSet(testData_X,testData_Y,tree['feaIdx'],tree['feaVal']) #进行偏差比较 #4-1.先获取没有合并的偏差 errorNoMerge = np.sum(np.power(TestDataGT_Y-tree['left'],2)) + np.sum(np.power(TestDataLG_Y-tree['right'],2)) #4-2.再获取合并后的偏差 treemean = (tree['left'] + tree['right'])/2 #由于是叶子节点,能够直接计算 errorMerge = np.sum(np.power(testData_Y- treemean,2)) #4-3.进行判断 if errorMerge < errorNoMerge: #能够剪枝 print("merging") #打印提示信息 return treemean #返回合并后的塌陷值 else: return tree #不进行合并,返回原树 return tree #返回树(可是该树的子树中可能存在剪枝合并状况由3能够知道
data_X,data_Y = loadDataSet("ex2.txt") myTree = createTree(data_X,data_Y,ops=(0,1)) #设置0,1表示不进行预剪枝,咱们只对比后剪枝 print(myTree) Testdata_X,Testdata_Y = loadDataSet("ex2test.txt") #获取测试集,开始进行后剪枝 myTree2 = prune(myTree,Testdata_X,Testdata_Y) print(myTree2)
import numpy as np def loadDataSet(filename): dataSet = np.loadtxt(filename) m,n = dataSet.shape data_X = dataSet[:,0:n-1] data_Y = dataSet[:,n-1] return data_X,data_Y def regLeaf(data_Y): #用于计算指定样本中标签均值表示回归y值 return np.mean(data_Y) def regErr(data_Y): #使用均方偏差做为划分依据 return np.var(data_Y)*data_Y.size def binSplitDataSet(data_X,data_Y,fea_axis,fea_val): #进行数据集划分 dataGtIdx = np.where(data_X[:,fea_axis]>fea_val) dataLgIdx = np.where(data_X[:,fea_axis]<=fea_val) return data_X[dataGtIdx],data_Y[dataGtIdx],data_X[dataLgIdx],data_Y[dataLgIdx] def chooseBestSplit(data_X,data_Y,leafType=regLeaf,errType=regErr,ops=(1,4)): """ 选取的最好切分方式,使用回调方式调用叶节点计算和偏差计算,函数中含有预剪枝操做 :param data_X: 传入数据集 :param data_Y: 传入标签值 :param leafType: 要调用计算的叶节点值 --- 虽然灵活,可是不必 :param errType: 要计算偏差的函数,这里是均方偏差 --- 虽然灵活,可是不必 :param ops: 包含了两个重要信息, tolS tolN用于控制函数的中止时机,tolS是允许的偏差降低值,偏差小于则再也不切分,tosN是切分的最少样本数 :return: """ m,n = data_X.shape tolS = ops[0] tolN = ops[1] #以前都是将判断是否继续划分子树放入createTree方法中,这里能够提到chooseBestSplit中进行判别。 #固然能够放入createTree方法中处理 if np.unique(data_Y).size == 1: #1.若是标签值所有相同,则返回特征None表示不须要进行下一步划分,返回叶节点 return None,leafType(data_Y) #遍历获取最优特征和特征值 TosErr = errType(data_Y) #获取所有数据集的偏差,后面计算划分后两个子集的总偏差,若是偏差降低小于tolS,则不进行划分,返回该叶子节点便可(预剪枝操做) bestErr = np.inf bestFeaIdx = 0 #注意:这里两个咱们设置为0,而不是-1,由于咱们必须保证能够取到一个特征(后面循环可能一直continue),咱们须要在后面进行额外处理 bestFeaVal = 0 for i in range(n): #遍历全部特征 for feaval in np.unique(data_X[:,i]): dataGt_X,dataGt_Y,dataLg_X,dataLg_Y = binSplitDataSet(data_X,data_Y,i,feaval) #数据集划分 # print(dataGt_X.shape,dataLg_X.shape) if dataGt_X.shape[0] < tolN or dataLg_X.shape[0] < tolN: #不符合最小数据集,不进行计算 continue concErr = errType(dataLg_Y)+errType(dataGt_Y) # print(concErr) if concErr < bestErr: bestFeaIdx = i bestFeaVal = feaval bestErr = concErr #2.若是最后求解的偏差,小于咱们要求的偏差距离,则不进行下一步划分数据集(预剪枝) if (TosErr - bestErr) < tolS: return None,leafType(data_Y) #3.若是咱们上面的数据集自己较小,则不管如何切分,数据集都<tolN,咱们就须要在这里再处理一遍,进行一下判断 dataGt_X, dataGt_Y, dataLg_X, dataLg_Y = binSplitDataSet(data_X, data_Y, bestFeaIdx, bestFeaVal) # 数据集划分 if dataGt_X.shape[0] < tolN or dataLg_X.shape[0] < tolN: # 不符合最小数据集,不进行计算 return None,leafType(data_Y) return bestFeaIdx,bestFeaVal #正常状况下的返回结果 def createTree(data_X,data_Y,leafType=regLeaf,errType=regErr,ops=(1,4)): #创建回归树 feaIdx,feaVal = chooseBestSplit(data_X,data_Y,leafType,errType,ops) if feaIdx == None: #是叶子节点 return feaVal #递归建树 myTree = {} myTree['feaIdx'] = feaIdx myTree['feaVal'] = feaVal dataGt_X, dataGt_Y, dataLg_X, dataLg_Y = binSplitDataSet(data_X, data_Y, feaIdx, feaVal) # 数据集划分 myTree['left'] = createTree(dataGt_X,dataGt_Y,leafType,errType,ops) myTree['right'] = createTree(dataLg_X,dataLg_Y,leafType,errType,ops) return myTree #开启后剪枝处理 def isTree(tree): return type(tree) == dict #是树的话返回字典,不然是数据 def getMean(tree): #获取当前树的合并均值REP---塌陷处理: 咱们对一棵树进行塌陷处理,就是递归将这棵树进行合并返回这棵树的平均值。 if isTree(tree['right']): tree['right'] = getMean(tree['right']) if isTree(tree['left']): tree['left'] = getMean(tree['left']) return (tree['left'] + tree['right'])/2 #返回均值 def prune(tree,testData_X,testData_Y): #根据决策树和测试集数据进行后剪枝处理,不能按照训练集进行后剪枝,由于建立决策树时预剪枝操做中已经要求子树偏差值小于根节点 #1.如果当测试集数据为空,则不须要后面的子树了,直接进行塌陷处理 if testData_X.shape[0] == 0: return getMean(tree) #2.若是当前测试集不为空,并且决策树含有左/右子树,则须要进入子树中进行剪枝操做---这里咱们先将测试集数据划分 if isTree(tree['left']) or isTree(tree['right']): TestDataGT_X,TestDataGT_Y,TestDataLG_X,TestDataLG_Y = binSplitDataSet(testData_X,testData_Y,tree['feaIdx'],tree['feaVal']) #3.根据子树进行下一步剪枝 if isTree(tree['left']): tree['left'] = prune(tree['left'],TestDataGT_X,TestDataGT_Y) #注意:这里是赋值操做,对树进行剪枝 if isTree(tree['right']): tree['right'] = prune(tree['right'],TestDataLG_X,TestDataLG_Y) #注意:这里是赋值操做,对树进行剪枝 #4.若是两个是叶子节点,咱们开始计算偏差,进行合并 if not isTree(tree['left']) and not isTree(tree['right']): #先划分测试集数据 TestDataGT_X,TestDataGT_Y,TestDataLG_X,TestDataLG_Y = binSplitDataSet(testData_X,testData_Y,tree['feaIdx'],tree['feaVal']) #进行偏差比较 #4-1.先获取没有合并的偏差 errorNoMerge = np.sum(np.power(TestDataGT_Y-tree['left'],2)) + np.sum(np.power(TestDataLG_Y-tree['right'],2)) #4-2.再获取合并后的偏差 treemean = (tree['left'] + tree['right'])/2 #由于是叶子节点,能够直接计算 errorMerge = np.sum(np.power(testData_Y- treemean,2)) #4-3.进行判断 if errorMerge < errorNoMerge: #能够剪枝 print("merging") #打印提示信息 return treemean #返回合并后的塌陷值 else: return tree #不进行合并,返回原树 return tree #返回树(可是该树的子树中可能存在剪枝合并状况由3能够知道 data_X,data_Y = loadDataSet("ex2.txt") myTree = createTree(data_X,data_Y,ops=(0,1)) #设置0,1表示不进行预剪枝,咱们只对比后剪枝 print(myTree) Testdata_X,Testdata_Y = loadDataSet("ex2test.txt") #获取测试集,开始进行后剪枝 myTree2 = prune(myTree,Testdata_X,Testdata_Y) print(myTree2)
import numpy as np import matplotlib.pyplot as plt def linearSolve(data_X,data_Y): X = np.c_[np.ones(data_X.shape[0]), data_X] XTX = X.T @ X if np.linalg.det(XTX) == 0: raise NameError("this matrix can`t inverse") W = np.linalg.inv(XTX) @ (X.T @ data_Y) return W,X,data_Y def modelLeaf(data_X,data_Y): W,X,Y = linearSolve(data_X,data_Y) return W def modelErr(data_X,data_Y): W,X,Y = linearSolve(data_X,data_Y) yPred = X@W return sum(np.power(yPred-data_Y,2))
def binSplitDataSet(data_X,data_Y,fea_axis,fea_val): #进行数据集划分 dataGtIdx = np.where(data_X[:,fea_axis]>fea_val) dataLgIdx = np.where(data_X[:,fea_axis]<=fea_val) return data_X[dataGtIdx],data_Y[dataGtIdx],data_X[dataLgIdx],data_Y[dataLgIdx] def chooseBestSplit(data_X,data_Y,leafType=regLeaf,errType=regErr,ops=(1,4)): """ 选取的最好切分方式,使用回调方式调用叶节点计算和偏差计算,函数中含有预剪枝操做 :param data_X: 传入数据集 :param data_Y: 传入标签值 :param leafType: 要调用计算的叶节点值 --- 虽然灵活,可是不必 :param errType: 要计算偏差的函数,这里是均方偏差 --- 虽然灵活,可是不必 :param ops: 包含了两个重要信息, tolS tolN用于控制函数的中止时机,tolS是允许的偏差降低值,偏差小于则再也不切分,tosN是切分的最少样本数 :return: """ m,n = data_X.shape tolS = ops[0] tolN = ops[1] #以前都是将判断是否继续划分子树放入createTree方法中,这里能够提到chooseBestSplit中进行判别。 #固然能够放入createTree方法中处理 if np.unique(data_Y).size == 1: #1.若是标签值所有相同,则返回特征None表示不须要进行下一步划分,返回叶节点 return None,leafType(data_X,data_Y) #遍历获取最优特征和特征值 TosErr = errType(data_X,data_Y) #获取所有数据集的偏差,后面计算划分后两个子集的总偏差,若是偏差降低小于tolS,则不进行划分,返回该叶子节点便可(预剪枝操做) bestErr = np.inf bestFeaIdx = 0 #注意:这里两个咱们设置为0,而不是-1,由于咱们必须保证能够取到一个特征(后面循环可能一直continue),咱们须要在后面进行额外处理 bestFeaVal = 0 for i in range(n): #遍历全部特征 for feaval in np.unique(data_X[:,i]): dataGt_X,dataGt_Y,dataLg_X,dataLg_Y = binSplitDataSet(data_X,data_Y,i,feaval) #数据集划分 # print(dataGt_X.shape,dataLg_X.shape) if dataGt_X.shape[0] < tolN or dataLg_X.shape[0] < tolN: #不符合最小数据集,不进行计算 continue concErr = errType(dataLg_X,dataLg_Y)+errType(dataGt_X,dataGt_Y) # print(concErr) if concErr < bestErr: bestFeaIdx = i bestFeaVal = feaval bestErr = concErr #2.若是最后求解的偏差,小于咱们要求的偏差距离,则不进行下一步划分数据集(预剪枝) if (TosErr - bestErr) < tolS: return None,leafType(data_X,data_Y) #3.若是咱们上面的数据集自己较小,则不管如何切分,数据集都<tolN,咱们就须要在这里再处理一遍,进行一下判断 dataGt_X, dataGt_Y, dataLg_X, dataLg_Y = binSplitDataSet(data_X, data_Y, bestFeaIdx, bestFeaVal) # 数据集划分 if dataGt_X.shape[0] < tolN or dataLg_X.shape[0] < tolN: # 不符合最小数据集,不进行计算 return None,leafType(data_X,data_Y) return bestFeaIdx,bestFeaVal #正常状况下的返回结果 def createTree(data_X,data_Y,leafType=regLeaf,errType=regErr,ops=(1,4)): #创建回归树 feaIdx,feaVal = chooseBestSplit(data_X,data_Y,leafType,errType,ops) if feaIdx == None: #是叶子节点 return feaVal #递归建树 myTree = {} myTree['feaIdx'] = feaIdx myTree['feaVal'] = feaVal dataGt_X, dataGt_Y, dataLg_X, dataLg_Y = binSplitDataSet(data_X, data_Y, feaIdx, feaVal) # 数据集划分 myTree['left'] = createTree(dataGt_X,dataGt_Y,leafType,errType,ops) myTree['right'] = createTree(dataLg_X,dataLg_Y,leafType,errType,ops) return myTree #开启后剪枝处理 def isTree(tree): return type(tree) == dict #是树的话返回字典,不然是数据 def getMean(tree): #获取当前树的合并均值REP---塌陷处理: 咱们对一棵树进行塌陷处理,就是递归将这棵树进行合并返回这棵树的平均值。 if isTree(tree['right']): tree['right'] = getMean(tree['right']) if isTree(tree['left']): tree['left'] = getMean(tree['left']) return (tree['left'] + tree['right'])/2 #返回均值 def prune(tree,testData_X,testData_Y): #根据决策树和测试集数据进行后剪枝处理,不能按照训练集进行后剪枝,由于建立决策树时预剪枝操做中已经要求子树偏差值小于根节点 #1.如果当测试集数据为空,则不须要后面的子树了,直接进行塌陷处理 if testData_X.shape[0] == 0: return getMean(tree) #2.若是当前测试集不为空,并且决策树含有左/右子树,则须要进入子树中进行剪枝操做---这里咱们先将测试集数据划分 if isTree(tree['left']) or isTree(tree['right']): TestDataGT_X,TestDataGT_Y,TestDataLG_X,TestDataLG_Y = binSplitDataSet(testData_X,testData_Y,tree['feaIdx'],tree['feaVal']) #3.根据子树进行下一步剪枝 if isTree(tree['left']): tree['left'] = prune(tree['left'],TestDataGT_X,TestDataGT_Y) #注意:这里是赋值操做,对树进行剪枝 if isTree(tree['right']): tree['right'] = prune(tree['right'],TestDataLG_X,TestDataLG_Y) #注意:这里是赋值操做,对树进行剪枝 #4.若是两个是叶子节点,咱们开始计算偏差,进行合并 if not isTree(tree['left']) and not isTree(tree['right']): #先划分测试集数据 TestDataGT_X,TestDataGT_Y,TestDataLG_X,TestDataLG_Y = binSplitDataSet(testData_X,testData_Y,tree['feaIdx'],tree['feaVal']) #进行偏差比较 #4-1.先获取没有合并的偏差 errorNoMerge = np.sum(np.power(TestDataGT_Y-tree['left'],2)) + np.sum(np.power(TestDataLG_Y-tree['right'],2)) #4-2.再获取合并后的偏差 treemean = (tree['left'] + tree['right'])/2 #由于是叶子节点,能够直接计算 errorMerge = np.sum(np.power(testData_Y- treemean,2)) #4-3.进行判断 if errorMerge < errorNoMerge: #能够剪枝 print("merging") #打印提示信息 return treemean #返回合并后的塌陷值 else: return tree #不进行合并,返回原树 return tree #返回树(可是该树的子树中可能存在剪枝合并状况由3能够知道
data_X,data_Y = loadDataSet("exp2.txt") myTree = createTree(data_X,data_Y,modelLeaf,modelErr,ops=(1,10)) #设置0,1表示不进行预剪枝,咱们只对比后剪枝 print(myTree) plt.figure() plt.scatter(data_X.flatten(),data_Y.flatten()) plt.show()
因为我上面没有很好的处理回归树和模型树的参数保持一致性,因此这里我对每个预测使用不一样代码(就是同上面同样,各自改变了参数,也能够该一下便可)
#实现预测回归树 def regTreeEval(model,data_X): #对于回归树,直接返回model(预测值),对于模型树,经过model和咱们传递的测试集数据进行预测 return model #实现预测模型树 def modelTreeEval(model,data_X): #为了使得回归树和模型树保持一致,因此咱们上面为regTreeEval加了data_X X = np.c_[np.ones(data_X.shape[0]),data_X] return X@model #开始递归预测 def treeForeCast(tree,TestData,modelEval=regTreeEval): if not isTree(tree): return modelEval(tree,TestData) #若是是叶子节点,直接返回预测值 if TestData[tree['feaIdx']] > tree['feaVal']: #若是测试集指定特征上的值大于决策树特征值,则进入左子树 if isTree(tree['left']): return treeForeCast(tree['left'],TestData,modelEval) else: #若是左子树是叶子节点,直接返回预测值 return modelEval(tree['left'],TestData) else: #进入右子树 if isTree(tree['right']): return treeForeCast(tree['right'],TestData,modelEval) else: #若是左子树是叶子节点,直接返回预测值 return modelEval(tree['right'],TestData) def createForecast(tree,testData_X,modelEval = regTreeEval): #进行测试集数据预测 m,n = testData_X.shape yPred = np.zeros((m,1)) for i in range(m): #开始预测 yPred[i] = treeForeCast(tree,testData_X[i],modelEval) return yPred
import numpy as np import matplotlib.pyplot as plt def loadDataSet(filename): dataSet = np.loadtxt(filename) m,n = dataSet.shape data_X = dataSet[:,0:n-1] data_Y = dataSet[:,n-1] return data_X,data_Y def regLeaf(data_Y): #用于计算指定样本中标签均值表示回归y值 return np.mean(data_Y) def regErr(data_Y): #使用均方偏差做为划分依据 return np.var(data_Y)*data_Y.size def binSplitDataSet(data_X,data_Y,fea_axis,fea_val): #进行数据集划分 dataGtIdx = np.where(data_X[:,fea_axis]>fea_val) dataLgIdx = np.where(data_X[:,fea_axis]<=fea_val) return data_X[dataGtIdx],data_Y[dataGtIdx],data_X[dataLgIdx],data_Y[dataLgIdx] def chooseBestSplit(data_X,data_Y,leafType=regLeaf,errType=regErr,ops=(1,4)): """ 选取的最好切分方式,使用回调方式调用叶节点计算和偏差计算,函数中含有预剪枝操做 :param data_X: 传入数据集 :param data_Y: 传入标签值 :param leafType: 要调用计算的叶节点值 --- 虽然灵活,可是不必 :param errType: 要计算偏差的函数,这里是均方偏差 --- 虽然灵活,可是不必 :param ops: 包含了两个重要信息, tolS tolN用于控制函数的中止时机,tolS是允许的偏差降低值,偏差小于则再也不切分,tosN是切分的最少样本数 :return: """ m,n = data_X.shape tolS = ops[0] tolN = ops[1] #以前都是将判断是否继续划分子树放入createTree方法中,这里能够提到chooseBestSplit中进行判别。 #固然能够放入createTree方法中处理 if np.unique(data_Y).size == 1: #1.若是标签值所有相同,则返回特征None表示不须要进行下一步划分,返回叶节点 return None,leafType(data_Y) #遍历获取最优特征和特征值 TosErr = errType(data_Y) #获取所有数据集的偏差,后面计算划分后两个子集的总偏差,若是偏差降低小于tolS,则不进行划分,返回该叶子节点便可(预剪枝操做) bestErr = np.inf bestFeaIdx = 0 #注意:这里两个咱们设置为0,而不是-1,由于咱们必须保证能够取到一个特征(后面循环可能一直continue),咱们须要在后面进行额外处理 bestFeaVal = 0 for i in range(n): #遍历全部特征 for feaval in np.unique(data_X[:,i]): dataGt_X,dataGt_Y,dataLg_X,dataLg_Y = binSplitDataSet(data_X,data_Y,i,feaval) #数据集划分 # print(dataGt_X.shape,dataLg_X.shape) if dataGt_X.shape[0] < tolN or dataLg_X.shape[0] < tolN: #不符合最小数据集,不进行计算 continue concErr = errType(dataLg_Y)+errType(dataGt_Y) # print(concErr) if concErr < bestErr: bestFeaIdx = i bestFeaVal = feaval bestErr = concErr #2.若是最后求解的偏差,小于咱们要求的偏差距离,则不进行下一步划分数据集(预剪枝) if (TosErr - bestErr) < tolS: return None,leafType(data_Y) #3.若是咱们上面的数据集自己较小,则不管如何切分,数据集都<tolN,咱们就须要在这里再处理一遍,进行一下判断 dataGt_X, dataGt_Y, dataLg_X, dataLg_Y = binSplitDataSet(data_X, data_Y, bestFeaIdx, bestFeaVal) # 数据集划分 if dataGt_X.shape[0] < tolN or dataLg_X.shape[0] < tolN: # 不符合最小数据集,不进行计算 return None,leafType(data_Y) return bestFeaIdx,bestFeaVal #正常状况下的返回结果 def createTree(data_X,data_Y,leafType=regLeaf,errType=regErr,ops=(1,4)): #创建回归树 feaIdx,feaVal = chooseBestSplit(data_X,data_Y,leafType,errType,ops) if feaIdx == None: #是叶子节点 return feaVal #递归建树 myTree = {} myTree['feaIdx'] = feaIdx myTree['feaVal'] = feaVal dataGt_X, dataGt_Y, dataLg_X, dataLg_Y = binSplitDataSet(data_X, data_Y, feaIdx, feaVal) # 数据集划分 myTree['left'] = createTree(dataGt_X,dataGt_Y,leafType,errType,ops) myTree['right'] = createTree(dataLg_X,dataLg_Y,leafType,errType,ops) return myTree #开启后剪枝处理 def isTree(tree): return type(tree) == dict #是树的话返回字典,不然是数据 def getMean(tree): #获取当前树的合并均值REP---塌陷处理: 咱们对一棵树进行塌陷处理,就是递归将这棵树进行合并返回这棵树的平均值。 if isTree(tree['right']): tree['right'] = getMean(tree['right']) if isTree(tree['left']): tree['left'] = getMean(tree['left']) return (tree['left'] + tree['right'])/2 #返回均值 def prune(tree,testData_X,testData_Y): #根据决策树和测试集数据进行后剪枝处理,不能按照训练集进行后剪枝,由于建立决策树时预剪枝操做中已经要求子树偏差值小于根节点 #1.如果当测试集数据为空,则不须要后面的子树了,直接进行塌陷处理 if testData_X.shape[0] == 0: return getMean(tree) #2.若是当前测试集不为空,并且决策树含有左/右子树,则须要进入子树中进行剪枝操做---这里咱们先将测试集数据划分 if isTree(tree['left']) or isTree(tree['right']): TestDataGT_X,TestDataGT_Y,TestDataLG_X,TestDataLG_Y = binSplitDataSet(testData_X,testData_Y,tree['feaIdx'],tree['feaVal']) #3.根据子树进行下一步剪枝 if isTree(tree['left']): tree['left'] = prune(tree['left'],TestDataGT_X,TestDataGT_Y) #注意:这里是赋值操做,对树进行剪枝 if isTree(tree['right']): tree['right'] = prune(tree['right'],TestDataLG_X,TestDataLG_Y) #注意:这里是赋值操做,对树进行剪枝 #4.若是两个是叶子节点,咱们开始计算偏差,进行合并 if not isTree(tree['left']) and not isTree(tree['right']): #先划分测试集数据 TestDataGT_X,TestDataGT_Y,TestDataLG_X,TestDataLG_Y = binSplitDataSet(testData_X,testData_Y,tree['feaIdx'],tree['feaVal']) #进行偏差比较 #4-1.先获取没有合并的偏差 errorNoMerge = np.sum(np.power(TestDataGT_Y-tree['left'],2)) + np.sum(np.power(TestDataLG_Y-tree['right'],2)) #4-2.再获取合并后的偏差 treemean = (tree['left'] + tree['right'])/2 #由于是叶子节点,能够直接计算 errorMerge = np.sum(np.power(testData_Y- treemean,2)) #4-3.进行判断 if errorMerge < errorNoMerge: #能够剪枝 print("merging") #打印提示信息 return treemean #返回合并后的塌陷值 else: return tree #不进行合并,返回原树 return tree #返回树(可是该树的子树中可能存在剪枝合并状况由3能够知道 #实现预测回归树 def regTreeEval(model,data_X): #对于回归树,直接返回model(预测值),对于模型树,经过model和咱们传递的测试集数据进行预测 return model #实现预测模型树 def modelTreeEval(model,data_X): #为了使得回归树和模型树保持一致,因此咱们上面为regTreeEval加了data_X X = np.c_[np.ones(data_X.shape[0]),data_X] return X@model #开始递归预测 def treeForeCast(tree,TestData,modelEval=regTreeEval): if not isTree(tree): return modelEval(tree,TestData) #若是是叶子节点,直接返回预测值 if TestData[tree['feaIdx']] > tree['feaVal']: #若是测试集指定特征上的值大于决策树特征值,则进入左子树 if isTree(tree['left']): return treeForeCast(tree['left'],TestData,modelEval) else: #若是左子树是叶子节点,直接返回预测值 return modelEval(tree['left'],TestData) else: #进入右子树 if isTree(tree['right']): return treeForeCast(tree['right'],TestData,modelEval) else: #若是左子树是叶子节点,直接返回预测值 return modelEval(tree['right'],TestData) def createForecast(tree,testData_X,modelEval = regTreeEval): #进行测试集数据预测 m,n = testData_X.shape yPred = np.zeros((m,1)) for i in range(m): #开始预测 yPred[i] = treeForeCast(tree,testData_X[i],modelEval) return yPred data_X,data_Y = loadDataSet("bikeSpeedVsIq_train.txt") #训练集数据 myTree = createTree(data_X,data_Y,ops=(1,20)) #训练集数据建决策模型树 print(myTree) testData_X,testData_Y = loadDataSet('bikeSpeedVsIq_test.txt') #测试集数据 yPred = createForecast(myTree,testData_X) #使用模型树预测 print(np.corrcoef(yPred,testData_Y,rowvar=0)[0,1]) plt.figure() plt.scatter(data_X.flatten(),data_Y.flatten()) plt.show()
data_X,data_Y = loadDataSet("bikeSpeedVsIq_train.txt") #训练集数据 myTree = createTree(data_X,data_Y,ops=(1,20)) #训练集数据建决策模型树 print(myTree) testData_X,testData_Y = loadDataSet('bikeSpeedVsIq_test.txt') #测试集数据 yPred = createForecast(myTree,testData_X) #使用模型树预测 print(np.corrcoef(yPred,testData_Y,rowvar=0)[0,1]) plt.figure() plt.scatter(data_X.flatten(),data_Y.flatten()) plt.show()
import numpy as np import matplotlib.pyplot as plt def loadDataSet(filename): dataSet = np.loadtxt(filename) m,n = dataSet.shape data_X = dataSet[:,0:n-1] data_Y = dataSet[:,n-1] return data_X,data_Y def regLeaf(data_Y): #用于计算指定样本中标签均值表示回归y值 return np.mean(data_Y) def regErr(data_Y): #使用均方偏差做为划分依据 return np.var(data_Y)*data_Y.size def linearSolve(data_X,data_Y): X = np.c_[np.ones(data_X.shape[0]), data_X] XTX = X.T @ X if np.linalg.det(XTX) == 0: raise NameError("this matrix can`t inverse") W = np.linalg.inv(XTX) @ (X.T @ data_Y) return W,X,data_Y def modelLeaf(data_X,data_Y): W,X,Y = linearSolve(data_X,data_Y) return W def modelErr(data_X,data_Y): W,X,Y = linearSolve(data_X,data_Y) yPred = X@W return sum(np.power(yPred-data_Y,2)) def binSplitDataSet(data_X,data_Y,fea_axis,fea_val): #进行数据集划分 dataGtIdx = np.where(data_X[:,fea_axis]>fea_val) dataLgIdx = np.where(data_X[:,fea_axis]<=fea_val) return data_X[dataGtIdx],data_Y[dataGtIdx],data_X[dataLgIdx],data_Y[dataLgIdx] def chooseBestSplit(data_X,data_Y,leafType=regLeaf,errType=regErr,ops=(1,4)): """ 选取的最好切分方式,使用回调方式调用叶节点计算和偏差计算,函数中含有预剪枝操做 :param data_X: 传入数据集 :param data_Y: 传入标签值 :param leafType: 要调用计算的叶节点值 --- 虽然灵活,可是不必 :param errType: 要计算偏差的函数,这里是均方偏差 --- 虽然灵活,可是不必 :param ops: 包含了两个重要信息, tolS tolN用于控制函数的中止时机,tolS是允许的偏差降低值,偏差小于则再也不切分,tosN是切分的最少样本数 :return: """ m,n = data_X.shape tolS = ops[0] tolN = ops[1] #以前都是将判断是否继续划分子树放入createTree方法中,这里能够提到chooseBestSplit中进行判别。 #固然能够放入createTree方法中处理 if np.unique(data_Y).size == 1: #1.若是标签值所有相同,则返回特征None表示不须要进行下一步划分,返回叶节点 return None,leafType(data_X,data_Y) #遍历获取最优特征和特征值 TosErr = errType(data_X,data_Y) #获取所有数据集的偏差,后面计算划分后两个子集的总偏差,若是偏差降低小于tolS,则不进行划分,返回该叶子节点便可(预剪枝操做) bestErr = np.inf bestFeaIdx = 0 #注意:这里两个咱们设置为0,而不是-1,由于咱们必须保证能够取到一个特征(后面循环可能一直continue),咱们须要在后面进行额外处理 bestFeaVal = 0 for i in range(n): #遍历全部特征 for feaval in np.unique(data_X[:,i]): dataGt_X,dataGt_Y,dataLg_X,dataLg_Y = binSplitDataSet(data_X,data_Y,i,feaval) #数据集划分 # print(dataGt_X.shape,dataLg_X.shape) if dataGt_X.shape[0] < tolN or dataLg_X.shape[0] < tolN: #不符合最小数据集,不进行计算 continue concErr = errType(dataLg_X,dataLg_Y)+errType(dataGt_X,dataGt_Y) # print(concErr) if concErr < bestErr: bestFeaIdx = i bestFeaVal = feaval bestErr = concErr #2.若是最后求解的偏差,小于咱们要求的偏差距离,则不进行下一步划分数据集(预剪枝) if (TosErr - bestErr) < tolS: return None,leafType(data_X,data_Y) #3.若是咱们上面的数据集自己较小,则不管如何切分,数据集都<tolN,咱们就须要在这里再处理一遍,进行一下判断 dataGt_X, dataGt_Y, dataLg_X, dataLg_Y = binSplitDataSet(data_X, data_Y, bestFeaIdx, bestFeaVal) # 数据集划分 if dataGt_X.shape[0] < tolN or dataLg_X.shape[0] < tolN: # 不符合最小数据集,不进行计算 return None,leafType(data_X,data_Y) return bestFeaIdx,bestFeaVal #正常状况下的返回结果 def createTree(data_X,data_Y,leafType=regLeaf,errType=regErr,ops=(1,4)): #创建回归树 feaIdx,feaVal = chooseBestSplit(data_X,data_Y,leafType,errType,ops) if feaIdx == None: #是叶子节点 return feaVal #递归建树 myTree = {} myTree['feaIdx'] = feaIdx myTree['feaVal'] = feaVal dataGt_X, dataGt_Y, dataLg_X, dataLg_Y = binSplitDataSet(data_X, data_Y, feaIdx, feaVal) # 数据集划分 myTree['left'] = createTree(dataGt_X,dataGt_Y,leafType,errType,ops) myTree['right'] = createTree(dataLg_X,dataLg_Y,leafType,errType,ops) return myTree #开启后剪枝处理 def isTree(tree): return type(tree) == dict #是树的话返回字典,不然是数据 def getMean(tree): #获取当前树的合并均值REP---塌陷处理: 咱们对一棵树进行塌陷处理,就是递归将这棵树进行合并返回这棵树的平均值。 if isTree(tree['right']): tree['right'] = getMean(tree['right']) if isTree(tree['left']): tree['left'] = getMean(tree['left']) return (tree['left'] + tree['right'])/2 #返回均值 def prune(tree,testData_X,testData_Y): #根据决策树和测试集数据进行后剪枝处理,不能按照训练集进行后剪枝,由于建立决策树时预剪枝操做中已经要求子树偏差值小于根节点 #1.如果当测试集数据为空,则不须要后面的子树了,直接进行塌陷处理 if testData_X.shape[0] == 0: return getMean(tree) #2.若是当前测试集不为空,并且决策树含有左/右子树,则须要进入子树中进行剪枝操做---这里咱们先将测试集数据划分 if isTree(tree['left']) or isTree(tree['right']): TestDataGT_X,TestDataGT_Y,TestDataLG_X,TestDataLG_Y = binSplitDataSet(testData_X,testData_Y,tree['feaIdx'],tree['feaVal']) #3.根据子树进行下一步剪枝 if isTree(tree['left']): tree['left'] = prune(tree['left'],TestDataGT_X,TestDataGT_Y) #注意:这里是赋值操做,对树进行剪枝 if isTree(tree['right']): tree['right'] = prune(tree['right'],TestDataLG_X,TestDataLG_Y) #注意:这里是赋值操做,对树进行剪枝 #4.若是两个是叶子节点,咱们开始计算偏差,进行合并 if not isTree(tree['left']) and not isTree(tree['right']): #先划分测试集数据 TestDataGT_X,TestDataGT_Y,TestDataLG_X,TestDataLG_Y = binSplitDataSet(testData_X,testData_Y,tree['feaIdx'],tree['feaVal']) #进行偏差比较 #4-1.先获取没有合并的偏差 errorNoMerge = np.sum(np.power(TestDataGT_Y-tree['left'],2)) + np.sum(np.power(TestDataLG_Y-tree['right'],2)) #4-2.再获取合并后的偏差 treemean = (tree['left'] + tree['right'])/2 #由于是叶子节点,能够直接计算 errorMerge = np.sum(np.power(testData_Y- treemean,2)) #4-3.进行判断 if errorMerge < errorNoMerge: #能够剪枝 print("merging") #打印提示信息 return treemean #返回合并后的塌陷值 else: return tree #不进行合并,返回原树 return tree #返回树(可是该树的子树中可能存在剪枝合并状况由3能够知道 #实现预测回归树 def regTreeEval(model,data_X): #对于回归树,直接返回model(预测值),对于模型树,经过model和咱们传递的测试集数据进行预测 return model #实现预测模型树 def modelTreeEval(model,data_X): #为了使得回归树和模型树保持一致,因此咱们上面为regTreeEval加了data_X X = np.c_[np.ones(data_X.shape[0]),data_X] return X@model #开始递归预测 def treeForeCast(tree,TestData,modelEval=regTreeEval): if not isTree(tree): return modelEval(tree,TestData) #若是是叶子节点,直接返回预测值 if TestData[tree['feaIdx']] > tree['feaVal']: #若是测试集指定特征上的值大于决策树特征值,则进入左子树 if isTree(tree['left']): return treeForeCast(tree['left'],TestData,modelEval) else: #若是左子树是叶子节点,直接返回预测值 return modelEval(tree['left'],TestData) else: #进入右子树 if isTree(tree['right']): return treeForeCast(tree['right'],TestData,modelEval) else: #若是左子树是叶子节点,直接返回预测值 return modelEval(tree['right'],TestData) def createForecast(tree,testData_X,modelEval = regTreeEval): #进行测试集数据预测 m,n = testData_X.shape yPred = np.zeros((m,1)) for i in range(m): #开始预测 yPred[i] = treeForeCast(tree,testData_X[i],modelEval) return yPred data_X,data_Y = loadDataSet("bikeSpeedVsIq_train.txt") #训练集数据 myTree = createTree(data_X,data_Y,modelLeaf,modelErr,ops=(1,20)) #训练集数据建决策模型树 print(myTree) testData_X,testData_Y = loadDataSet('bikeSpeedVsIq_test.txt') #测试集数据 yPred = createForecast(myTree,testData_X,modelTreeEval) #使用模型树预测 print(np.corrcoef(yPred,testData_Y,rowvar=0)[0,1]) plt.figure() plt.scatter(data_X.flatten(),data_Y.flatten()) plt.show()
data_X,data_Y = loadDataSet("bikeSpeedVsIq_train.txt") #训练集数据 myTree = createTree(data_X,data_Y,modelLeaf,modelErr,ops=(1,20)) #训练集数据建决策模型树 print(myTree) testData_X,testData_Y = loadDataSet('bikeSpeedVsIq_test.txt') #测试集数据 yPred = createForecast(myTree,testData_X,modelTreeEval) #使用模型树预测 print(np.corrcoef(yPred,testData_Y,rowvar=0)[0,1]) plt.figure() plt.scatter(data_X.flatten(),data_Y.flatten()) plt.show()
能够看到模型树优于回归树
data_X,data_Y = loadDataSet("bikeSpeedVsIq_train.txt") #训练集数据 testData_X,testData_Y = loadDataSet('bikeSpeedVsIq_test.txt') #测试集数据 W,X,Y = linearSolve(data_X,data_Y) yPred2 = np.zeros((testData_X.shape[0],1)) testDX = np.c_[np.ones(testData_X.shape[0]),testData_X] for i in range(testData_X.shape[0]): yPred2[i] = testDX[i]@W print(np.corrcoef(yPred2,testData_Y,rowvar=0)[0,1])
因此,树回归方法在预测复杂数据时,会比简单的线性模型更加有效