参考:https://pytorch-cn.readthedocs.io/zh/latest/torchvision/torchvision-datasets/python
Datasets
拥有如下API
:多线程
__getitem__
__len__
Datasets
都是 torch.utils.data.Dataset
的子类,因此,他们也能够经过torch.utils.data.DataLoader
使用多线程(python的多进程)。函数
举例说明: spa
torch.utils.data.DataLoader(coco_cap, batch_size=args.batchSize, shuffle=True, num_workers=args.nThreads)
在构造函数中,不一样的数据集直接的构造函数会有些许不一样,可是他们共同拥有 keyword
参数。线程
transform
: 一个函数,原始图片做为输入,返回一个转换后的图片。target_transform
- 一个函数,输入为target
,输出对其的转换。例子,输入的是图片标注的string
,输出为word
的索引。一个通用的数据加载器,数据集中的数据以如下方式组织code
root/dog/xxx.png root/dog/xxy.png root/dog/xxz.png root/cat/123.png root/cat/nsdf3.png root/cat/asd932_.png
既其默认你的数据集已经自觉按照要分配的类型分红了不一样的文件夹,一种类型的文件夹下面只存放一种类型的图片orm
运行命令为:对象
import torchvision.datasets as dset
dset.ImageFolder(root="root folder path", [transform, target_transform])
transform
: 一个函数,原始图片做为输入,返回一个转换后的图片。target_transform
- 一个函数,输入为target
,输出对其的转换。例子,输入的是图片标注的string
,输出为word
的索引。有如下成员变量:blog
可见分红了cat和dog两类索引
import torchvision.datasets as dset dataset = dset.ImageFolder('./data/dogcat_2') #没有transform,先看看取得的原始图像数据 print(dataset.classes) #根据分的文件夹的名字来肯定的类别 print(dataset.class_to_idx) #按顺序为这些类别定义索引为0,1... print(dataset.imgs) #返回从全部文件夹中获得的图片的路径以及其类别
返回:
['cat', 'dog'] {'cat': 0, 'dog': 1} [('./data/dogcat_2/cat/cat.12484.jpg', 0), ('./data/dogcat_2/cat/cat.12485.jpg', 0), ('./data/dogcat_2/cat/cat.12486.jpg', 0), ('./data/dogcat_2/cat/cat.12487.jpg', 0), ('./data/dogcat_2/dog/dog.12496.jpg', 1), ('./data/dogcat_2/dog/dog.12497.jpg', 1), ('./data/dogcat_2/dog/dog.12498.jpg', 1), ('./data/dogcat_2/dog/dog.12499.jpg', 1)]
若是在数据下面又添加了一个类型'others',那么访问类型的时候返回的就是:
['cat', 'dog', 'others'] {'cat': 0, 'dog': 1, 'others': 2}
查看获得的图片数据:
#从返回结果可见获得的数据还是PIL Image对象 print(dataset[0]) print(dataset[0][0]) print(dataset[0][1]) #获得的是类别0,即cat
返回:
(<PIL.Image.Image image mode=RGB size=497x500 at 0x11D99A9B0>, 0) <PIL.Image.Image image mode=RGB size=497x500 at 0x11DD24278> 0
而后定义一个对数据进行处理的transform:
#能够看出来此时获得的图片数据已是处理事后的tensor数据了 print(dataset[0][0]) print(dataset[0][0].size()) #大小也是通过设定后的大小224 print(dataset[0][1]) #获得的是类别0,即cat
返回:
tensor([[[-0.7412, -0.7490, -0.7725, ..., 0.3176, 0.3412, 0.3725], [-0.7333, -0.7412, -0.7882, ..., 0.3255, 0.3647, 0.4039], [-0.7098, -0.7569, -0.8039, ..., 0.3255, 0.3725, 0.4039], ..., [ 0.3961, 0.3961, 0.4039, ..., 0.2627, 0.2627, 0.2549], [ 0.4196, 0.4039, 0.4118, ..., 0.2549, 0.2392, 0.2314], [ 0.4275, 0.4275, 0.4431, ..., 0.2314, 0.2314, 0.2235]], [[-0.7412, -0.7490, -0.7725, ..., 0.3882, 0.3725, 0.3569], [-0.7333, -0.7412, -0.7882, ..., 0.3961, 0.3961, 0.3882], [-0.7098, -0.7569, -0.8039, ..., 0.3882, 0.4039, 0.3882], ..., [ 0.0431, 0.0510, 0.0667, ..., -0.0824, -0.0824, -0.0902], [ 0.0510, 0.0431, 0.0588, ..., -0.0824, -0.1059, -0.1137], [ 0.0353, 0.0353, 0.0510, ..., -0.0902, -0.1059, -0.1216]], [[-0.8353, -0.8431, -0.8667, ..., 0.3255, 0.3255, 0.3255], [-0.8196, -0.8275, -0.8824, ..., 0.3333, 0.3490, 0.3569], [-0.7804, -0.8353, -0.8667, ..., 0.3333, 0.3569, 0.3569], ..., [-0.2863, -0.2784, -0.2627, ..., -0.3569, -0.3569, -0.3647], [-0.2549, -0.2706, -0.2549, ..., -0.3569, -0.3804, -0.3882], [-0.2235, -0.2471, -0.2392, ..., -0.3569, -0.3804, -0.4039]]]) torch.Size([3, 224, 224]) 0