sklearn之train_test_split()函数各参数含义(很是全)数组
在机器学习中,咱们一般将原始数据按照比例分割为“测试集”和“训练集”,从 sklearn.model_selection 中调用train_test_split 函数 dom
简单用法以下:机器学习
X_train,X_test, y_train, y_test =sklearn.model_selection.train_test_split(train_data,train_target,test_size=0.4, random_state=0,stratify=y_train)
# train_data:所要划分的样本特征集函数
# train_target:所要划分的样本结果学习
# test_size:样本占比,若是是整数的话就是样本的数量测试
# random_state:是随机数的种子。
# 随机数种子:其实就是该组随机数的编号,在须要重复试验的时候,保证获得一组同样的随机数。好比你每次都填1,其余参数同样的状况下你获得的随机数组是同样的。但填0或不填,每次都会不同。spa
stratify是为了保持split前类的分布。好比有100个数据,80个属于A类,20个属于B类。若是train_test_split(... test_size=0.25, stratify = y_all), 那么split以后数据以下:
training: 75个数据,其中60个属于A类,15个属于B类。
testing: 25个数据,其中20个属于A类,5个属于B类。 blog
用了stratify参数,training集和testing集的类的比例是 A:B= 4:1,等同于split前的比例(80:20)。一般在这种类分布不平衡的状况下会用到stratify。ip
将stratify=X就是按照X中的比例分配 ci
将stratify=y就是按照y中的比例分配
总体总结起来各个参数的设置及其类型以下:
主要参数说明:
*arrays:能够是列表、numpy数组、scipy稀疏矩阵或pandas的数据框
test_size:能够为浮点、整数或None,默认为None
①若为浮点时,表示测试集占总样本的百分比
②若为整数时,表示测试样本样本数
③若为None时,test size自动设置成0.25
train_size:能够为浮点、整数或None,默认为None
①若为浮点时,表示训练集占总样本的百分比
②若为整数时,表示训练样本的样本数
③若为None时,train_size自动被设置成0.75
random_state:能够为整数、RandomState实例或None,默认为None
①若为None时,每次生成的数据都是随机,可能不同
②若为整数时,每次生成的数据都相同
stratify:能够为相似数组或None
①若为None时,划分出来的测试集或训练集中,其类标签的比例也是随机的
②若不为None时,划分出来的测试集或训练集中,其类标签的比例同输入的数组中类标签的比例相同,能够用于处理不均衡的数据集
经过简单栗子看看各个参数的做用:
举例以下:
经过简单例子看看各个参数的做用:
①test_size决定划分测试、训练集比例
②random_state不一样值获取到不一样的数据集
设置random_state=0再运行一次,结果同上述相同
设置random_state=None运行两次,发现两次的结果不一样
③设置stratify参数,能够处理数据不平衡问题