0.鸢尾花数据集html
鸢尾花数据集做为入门经典数据集。Iris数据集是经常使用的分类实验数据集,由Fisher, 1936收集整理。Iris也称鸢尾花卉数据集,是一类多重变量分析的数据集。数据集包含150个数据集,分为3类,每类50个数据,每一个数据包含4个属性。可经过花萼长度,花萼宽度,花瓣长度,花瓣宽度4个属性预测鸢尾花卉属于(Setosa,Versicolour,Virginica)三个种类中的哪一类。算法
在三个类别中,其中有一个类别和其余两个类别是线性可分的。另外。在sklearn中已内置了此数据集。app
1 from sklearn.datasets import load_iris #导入IRIS数据集 2 iris = load_iris() #特征矩阵
数据集的格式以下图所示:dom
1.数据集的载入机器学习
虽然在sklearn中,内置了鸢尾花数据集,可是咱们用的是下载好的数据集,下面是数据集的读入,咱们先经过手动的方式将数据集进行读入。函数
1 f = open(path) 2 x = [] 3 y = [] 4 for d in f: 5 d = d.strip() 6 if d: 7 d = d.split(',') 8 y.append(d[-1]) 9 x.append(list(map(float, d[:-1]))) 10 x = np.array(x) 11 y = np.array(y) 12 print(x) 13 y[y == 'Iris-setosa'] = 0 14 y[y == 'Iris-versicolor'] = 1 15 y[y == 'Iris-virginica'] = 2 16 print(y) 17 y = y.astype(dtype=np.int) 18 print(y)
代码的13-15中,经过判断y中的标签值,返回的是一个y大小相同的一个boolearn类型的列表,在经过这个列表进行赋值操做,很是的迅速和灵活。学习
读取的X数据以下:测试
处理后的标签的数据以下:优化
除了上述方式的手动读入数据,还能够经过pandas库来进行数据的读取。spa
1 import numpy as np 2 from sklearn.linear_model import LogisticRegression 3 import matplotlib.pyplot as plt 4 import matplotlib as mpl 5 from sklearn import preprocessing 6 import pandas as pd 7 from sklearn.preprocessing import StandardScaler 8 from sklearn.pipeline import Pipeline 9 10 df = pd.read_csv(path, header=0) 11 x = df.values[:, :-1] 12 y = df.values[:, -1] 13 print('x = \n', x) 14 print('y = \n', y) 15 le = preprocessing.LabelEncoder() 16 le.fit(['Iris-setosa', 'Iris-versicolor', 'Iris-virginica']) 17 print(le.classes_) 18 y = le.transform(y) 19 print('Last Version, y = \n', y)
上述代码中,pd.read_csv(path, header=0),header :指定行数用来做为列名,数据开始行数。若是文件中没有列名,则默认为0【第一行数据】,不然设置
为None。
sklearn.preprocessing.LabelEncoder():标准化标签,将标签值统一转换成range(标签值个数-1)范围内,例如["paris", "paris", "tokyo", "amsterdam"];里面不
同的标签数目是3个,则标准化标签以后就是0,1,2,而且根据字典排序。
le.fit(['Iris-setosa', 'Iris-versicolor', 'Iris-virginica'])含义为将标签集喂给le标签处理器,y = le.transform(y)对y进行转化。
也可使用numpy来对数据进行加载。
def iris_type(s): it = {b'Iris-setosa': 0, b'Iris-versicolor': 1, b'Iris-virginica': 2} return it[s] data = np.loadtxt(path, dtype=float, delimiter=',', converters={4: iris_type})
使用np中的loadtxt来对数据加载,delimiter指定数据的分割符,converter为指定须要进行转换的列及对应的转换函数。
2.构建线性模型
为了后面的可视化的效果,咱们在此仅选用了连两个特征构建logistic回归模型,代码以下:
1 x = x[:, :2] 2 print(x) 3 print(y) 4 x = StandardScaler().fit_transform(x) 5 lr = LogisticRegression() # Logistic回归模型 6 lr.fit(x, y.ravel()) # 根据数据[x,y],计算回归参数
StandardScaler----计算训练集的平均值和标准差,以便测试数据集使用相同的变换。即fit_transform()的做用就是先拟合数据,而后转化它将其转化为标准形
式。调用fit_transform(),其实找到了均值μ和方差σ^2,即已经找到了转换规则,把这个规则利用在训练集上,一样,能够直接将其运用到测试集上(甚至交叉验证
集)。
咱们也可使用管道的方式构建模型,并进行训练:
1 lr = Pipeline([('sc', StandardScaler()), 2 ('clf', LogisticRegression()) ]) 3 lr.fit(x, y.ravel())
LogisticRegression()的主要参数以下:
- penalty:惩罚项,str类型,可选参数为l1和l2,默认为l2。用于指定惩罚项中使用的规范。newton-cg、sag和lbfgs求解算法只支持L2规范。L1规范假设的是模型的参数知足拉普拉斯分布,L2假设的模型参数知足高斯分布。
- dual:对偶或原始方法,bool类型,默认为False。对偶方法只用在求解线性多核(liblinear)的L2惩罚项上。当样本数量>样本特征的时候,dual一般设置为False。
- tol:中止求解的标准,float类型,默认为1e-4。就是求解到多少的时候,中止,认为已经求出最优解。
- c:正则化系数λ的倒数,float类型,默认为1.0。必须是正浮点型数。像SVM同样,越小的数值表示越强的正则化。
- fit_intercept:是否存在截距或误差,bool类型,默认为True。
- intercept_scaling:仅在正则化项为”liblinear”,且fit_intercept设置为True时有用。float类型,默认为1。
- class_weight:用于标示分类模型中各类类型的权重,能够是一个字典或者’balanced’字符串,默认为不输入,也就是不考虑权重,即为None。
- random_state:随机数种子,int类型,可选参数,默认为无,仅在正则化优化算法为sag,liblinear时有用。
- solver:优化算法选择参数,只有五个可选参数,即newton-cg,lbfgs,liblinear,sag,saga。默认为liblinear。solver参数决定了咱们对逻辑回归损失函数的优化方法,有四种算法能够选择,分别是:
- liblinear:使用了开源的liblinear库实现,内部使用了坐标轴降低法来迭代优化损失函数。
- lbfgs:拟牛顿法的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数。
- newton-cg:也是牛顿法家族的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数。
- sag:即随机平均梯度降低,是梯度降低法的变种,和普通梯度降低法的区别是每次迭代仅仅用一部分的样原本计算梯度,适合于样本数据多的时候。
- saga:线性收敛的随机优化算法的的变重。
3.模型的可视化
咱们能够在所选特征的范围内,从最大值到最小值构建一系列的数据,使得它能覆盖整个的特征数据范围,而后预测这些值所属的分类,并给它们所在的区域
上色,这样咱们就可以清楚的看到模型每一个分类的区域了,具体的代码以下所示:
1 N, M = 500, 500 # 横纵各采样多少个值 2 x1_min, x1_max = x[:, 0].min(), x[:, 0].max() # 第0列的范围 3 x2_min, x2_max = x[:, 1].min(), x[:, 1].max() # 第1列的范围 4 t1 = np.linspace(x1_min, x1_max, N) 5 t2 = np.linspace(x2_min, x2_max, M) 6 x1, x2 = np.meshgrid(t1, t2) # 生成网格采样点 7 x_test = np.stack((x1.flat, x2.flat), axis=1) # 测试点 8 9 cm_light = mpl.colors.ListedColormap(['#77E0A0', '#FF8080', '#A0A0FF']) 10 cm_dark = mpl.colors.ListedColormap(['g', 'r', 'b']) 11 y_hat = lr.predict(x_test) # 预测值 12 y_hat = y_hat.reshape(x1.shape) # 使之与输入的形状相同 13 plt.pcolormesh(x1, x2, y_hat, cmap=cm_light) # 预测值的显示 14 plt.scatter(x[:, 0], x[:, 1], c=y.ravel(), edgecolors='k', s=50, cmap=cm_dark) 15 plt.xlabel('petal length') 16 plt.ylabel('petal width') 17 plt.xlim(x1_min, x1_max) 18 plt.ylim(x2_min, x2_max) 19 plt.grid() 20 plt.savefig('2.png') 21 plt.show()
np.meshgrid()函数经常使用于生成网格数据,多用于绘制三维图形。 mpl.colors.ListedColormap(['#77E0A0', '#FF8080', '#A0A0FF'])生成一个颜色的列表,plt.pcolormesh(x1, x2, y_hat, cmap=cm_light) 根据颜色列表中的值,给传入的坐标进行绘图。
绘制的图片的效果以下:
4.计算模型的准确率
因为咱们使用的是两个特征进行数据集的分类,因此分类的准确率并非高,代码以下:
1 y_hat = lr.predict(x) 2 y = y.reshape(-1) 3 result = y_hat == y 4 print(y_hat) 5 print(result) 6 acc = np.mean(result) 7 print('准确度: %.2f%%' % (100 * acc))
具体的准确率是多少呢?同窗们能够本身动手试一下哦!
欢迎关注个人公众号,不按期分享机器学习模型原理!