前言:我参考了不少前辈写的博客,有https://github.com/Dod-o/Statistical-Learning-Method_Code,http://www.javashuo.com/article/p-pgblwlao-mo.html,都写的很好,我在这里从新写一遍只是为了整理本身学过的东西并加深本身的理解,方便之后回顾复习。对于初学的朋友,建议直接阅读以上的两个连接。html
数据集采用mnist,使用ID3来对图片集进行分类,将每个像素做为一个特征,为了提升预测的精确率,须要对图片进行二值化处理。node
如下是ID3的源代码。git
# encoding=utf-8 import cv2 import time import numpy as np import pandas as pd from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score # 二值化 def binaryzation(img): cv_img = img.astype(np.uint8) # astype用于改变数据的类型 uint8是无符号八位(bit)整型,表示范围是[0, 255]的整数 # 原图片,阈值,最大值,划分时采用的算法 大于50的点设置为0,其余的为最大值1 cv2.threshold(cv_img, 50, 1, cv2.THRESH_BINARY_INV, cv_img) return cv_img def binaryzation_features(trainset): features = [] for img in trainset: img = np.reshape(img,(28,28)) # 28行*28列,每个元素表明一个像素值,元素的值是8位无符号整型 cv_img = img.astype(np.uint8) img_b = binaryzation(cv_img) # 此为上面自定义的函数 # hog_feature = np.transpose(hog_feature) features.append(img_b) features = np.array(features) # 将list转化为array features = np.reshape(features,(-1,feature_len)) # 我不知道能够分红多少行,可是个人须要是分红feature_len列(feature_len = 784) return features import os import struct import numpy as np def load_mnist(path, kind='train'): labels_path = os.path.join(path, '%s-labels.idx1-ubyte' % kind) images_path = os.path.join(path, '%s-images.idx3-ubyte' % kind) with open(labels_path, 'rb') as lbpath: magic, n = struct.unpack('>II', lbpath.read(8)) # 一个I表明4个字节,因此一共有8字节的头部,分别存入变量magic和n中 labels = np.fromfile(lbpath, dtype=np.uint8) # 一个字节一读,并转化为8位无符号整型 with open(images_path, 'rb') as imgpath: magic, num, rows, cols = struct.unpack('>IIII', imgpath.read(16)) images = binaryzation_features(np.fromfile(imgpath, dtype=np.uint8).reshape(len(labels), 784)) # images = np.fromfile(imgpath, dtype=np.uint8).reshape(len(labels), 784) # 除去16个字节的头部以后,剩下的数据转变为8位无符号整型 return images, labels # 训练集一共有9912422字节,训练集一共有60000个样本,经过样本数没法推得有那么多的字节,应该是通过压缩了的 # 决策树的定义 class Tree(object): def __init__(self,node_type,Class = None, feature = None): self.node_type = node_type # 节点类型(internal或leaf) self.dict = {} # dict的键表示特征Ag的可能值ai,值表示根据ai获得的子树,{特征值:子树},采用字典的形式来描述树型结构 self.Class = Class # 叶节点表示的类标记,如果内部节点则为none self.feature = feature # 表示当前的树即将由第feature个特征划分(即第feature特征是使得当前树中信息增益最大的特征) def add_tree(self,key,tree): # key表明的特征值,不一样的key用于区分不一样的子树 self.dict[key] = tree # 一个key就是一条树的分支 def predict(self,features): # features为当前待预测的一个样本 # 当样本中采样不全,结果在测试集中出现了一个在样本中从未出现过特征值,则搜索会在内部节点就直接终止,self.class即是None if self.node_type == 'leaf' or (features[self.feature] not in self.dict): return self.Class # predict最终返回的是样本对应的类标记。 tree = self.dict.get(features[self.feature]) # 找出第feature个特征所对应的特征值 return tree.predict(features) # 递归搜索 # 计算数据集x的经验熵H(x)——每个类的样本数量在全部类样本数据中所占的比重 def calc_ent(x): # 类列 # 样本中有那些类(样本中的类可能不全),x的类型是array,先将其转变为list,再变为set x_value_list = set([x[i] for i in range(x.shape[0])]) # 造成不重复的类集合 ent = 0.0 for x_value in x_value_list: p = float(x[x == x_value].shape[0]) / x.shape[0] # 当前类的数量 / 总的类的数量 logp = np.log2(p) ent -= p * logp # 计算熵,熵越大,随机变量的不肯定性就越大 return ent # 计算条件熵H(y/x) def calc_condition_ent(x, y): # 特征列,类列 x_value_list = set([x[i] for i in range(x.shape[0])]) # 某一特征中的全部不重复的特征值 ent = 0.0 for x_value in x_value_list: # 从x这一array数组中依次遍历,挑出其中与值x_value相同的,因为train_test_split的影响,其结果会直接对应y中的对应类 sub_y = y[x == x_value] temp_ent = calc_ent(sub_y) # sub_y是拥有相同特征值的不一样的类的列表 ent += (float(sub_y.shape[0]) / y.shape[0]) * temp_ent return ent # 计算信息增益 def calc_ent_grap(x,y): # 特征列,类列 base_ent = calc_ent(y) # 计算数据集x的经验熵H(x) condition_ent = calc_condition_ent(x, y) # 计算条件熵H(y/x) ent_grap = base_ent - condition_ent return ent_grap # ID3算法 def recurse_train(train_set, train_label, features): # train_features, train_labels. 训练集以及其对应的类列表 features为特征列表 LEAF = 'leaf' INTERNAL = 'internal' # 步骤1——若是训练集train_set中的全部实例都属于同一类Ck label_set = set(train_label) # set能够理解为数据不重复的列表,且元素为不可变对象 if len(label_set) == 1: return Tree(LEAF,Class = label_set.pop()) # 步骤2——处理特征集为空时的状况 # filter() 函数用于过滤序列,过滤掉不符合条件的元素,返回由符合条件元素组成的迭代器对象。 # lambda x:x==i,train_label,x指向train_label,依次搜索train_label中的每个值,若是与i相等,则将其放入list中 # 计算每个类出现的个数,并用元组存放结果[(类标号,类的数量), ...] class_len = [(i,len(list( filter(lambda x:x==i,train_label) ))) for i in range(class_num)] (max_class, max_len) = max(class_len, key = lambda x:x[1]) # 返回列表中元组中的类数量最多的那个元组 x[1]类所对应的数量 # 类, 类的数量 if len(features) == 0: # features为特征集合 return Tree(LEAF,Class = max_class) # 步骤3——计算信息增益,并选择信息增益最大的特征 max_feature = 0 # 能产生最大信息增益的特征 max_gda = 0 # 信息增益的最大值 D = train_label # train_labels,训练集对应的类列表 for feature in features: # 从784个特征中依次选取特征计算器信息增益 A = np.array(train_set[:,feature].flat) # 选择训练集中的第feature列的全部特征值,.flat是将数组转换为1-D的迭代器 gda=calc_ent_grap(A,D) # 计算信息增益 if gda > max_gda: max_gda,max_feature = gda,feature # 步骤4——信息增益小于阈值,这里采用先剪枝算法,防止过拟合 if max_gda < epsilon: return Tree(LEAF,Class = max_class) # 步骤5——构建非空子集 sub_features = list(filter(lambda x:x!=max_feature,features)) # 将已经使用过的特征从特征集中删除 tree = Tree(INTERNAL,feature=max_feature) # 当前树节点是内部节点,将由feature特征继续划分样本集 max_feature_col = np.array(train_set[:,max_feature].flat) # .flat是将数组转换为1-D的迭代器 # 保存信息增益最大的特征可能的取值 (shape[0]表示计算行数) # y.shape 返回的一个元组,表明 y 数据集的信息如(行,列) y.shape[0], 意思是:返回 y 中行的总数。 # 这个值在 y 是单特征的状况下 和 len(y) 是等价的。即数据集中数据点的总数。 # 依据特征值的不一样将样本分到不一样的子树 feature_value_list = set([max_feature_col[i] for i in range(max_feature_col.shape[0])]) for feature_value in feature_value_list: index = [] for i in range(len(train_label)): if train_set[i][max_feature] == feature_value: index.append(i) sub_train_set = train_set[index] # 将特征值同是feature_value的样本放到一块儿,造成一个新的子树样本 sub_train_label = train_label[index] # 将样本对应的类也封装到一块儿,一块儿传入子树中 sub_tree = recurse_train(sub_train_set,sub_train_label,sub_features) # 递归函数 tree.add_tree(feature_value,sub_tree) return tree def train(train_set,train_label,features): return recurse_train(train_set,train_label,features) def predict(test_set,tree): result = [] for features in test_set: tmp_predict = tree.predict(features) result.append(tmp_predict) # result存储测试集中的样本对应的测试获得的类 return np.array(result) # 将list数组转变为array数组 class_num = 10 # MINST数据集有10种labels,分别是“0,1,2,3,4,5,6,7,8,9” feature_len = 784 # MINST数据集每一个image有28*28=784个特征(pixels) epsilon = 0.001 if __name__ == '__main__': print("Start read data...") t1 = time.time() # basedir = os.path.dirname(__file__) train_features,train_labels = load_mnist("data" , kind='train') test_features,test_labels = load_mnist("data", kind='t10k') t2 = time.time() print("读取数据用时:" + str((t2-t1))) print('Start training...') tree = train(train_features, train_labels, list(range(feature_len))) # 0-783的一个数组,特征集 t3 = time.time() print("训练数据用时:" + str((t3-t2))) print('Start predicting...') test_predict = predict(test_features,tree) # test_features测试集,tree为训练好的模型,函数返回的类型为np.array t4 = time.time() print("预测结果用时:" + str((t4-t3))) r = 0 for i in range(len(test_predict)): if test_predict[i] == None: # 在树的某一个分支处没有其对应的特征值 test_predict[i] = 10 # 最终结果是不匹配,可是因为须要比较,因此得将None变成数字,不存在10这个手写数字 else: if test_predict[i] == test_labels[i]: r = r + 1 score = float(r)/float(len(test_predict)) print("The accruacy score is %f" % score)