python

关注公众号 jb51net

关闭
首页 > 脚本专栏 > python > 使用DataLoader批量加载数据

Pytorch使用DataLoader实现批量加载数据

作者:Vic·Tory

这篇文章主要介绍了Pytorch使用DataLoader实现批量加载数据方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教

在进行模型训练时,需要把数据按照固定的形式分批次投喂给模型,在PyTorch中通过torch.utils.data库的DataLoader完成分批次返回数据。

构造DataLoader首先需要一个Dataset数据源,Dataset完成数据的读取并可以返回单个数据,然后DataLoader在此基础上完成数据清洗、打乱等操作并按批次返回数据。

Dataset

PyTorch将数据源分为两种类型:类似Map型(Map-style datasets)和可迭代型(Iterable-style datasets)。

Map风格的数据源可以通过索引idx对数据进行查找:dataset[idx],它需要继承Dataset类,并且重写__getitem__() 方法完成根据索引值获取数据和__len__() 方法返回数据的总长度。

可迭代型可以迭代获取其数据,但没有固定的长度,因此也不能通过下标获得数据,通常用于无法获取全部数据或者流式返回的数据。它继承自IterableDataset类,并且需要实现__iter__()方法来完成对数据集的迭代和返回。

如下所示为自定义的数据源MySet,它完成数据的读取,这里假定为[1, 9] 9个数据,然后重写了__getitem__() 和__len__() 方法

from torch.utils.data import Dataset, DataLoader, Sampler

class MySet(Dataset):
	# 读取数据
    def __init__(self):
        self.data = [1, 2, 3, 4, 5, 6, 7, 8, 9]
	# 根据索引返回数据
    def __getitem__(self, idx):
        return self.data[idx]
	# 返回数据集总长度
    def __len__(self):
        return len(self.data)

DataLoader

其构造函数如下:

torch.utils.data.DataLoader(dataset, batch_size=1, shuffle=False, sampler=None, batch_sampler=None, num_workers=0, collate_fn=None, pin_memory=False, drop_last=False, timeout=0, worker_init_fn=None, multiprocessing_context=None)

Sampler索引

既然DataLoader根据索引值从Dataset中获取数据,那么如何获取一个批次数据的索引,索引值应该如何排列才能实现随机的效果?这就需要Sampler了,它可以对索引进行shuffle操作来打乱顺序,并且根据batch size一次返回指定个数的索引序列。

在初始化DataLoader时通过sampler属性指定获取下一个数据的索引的方法,或者batch_sampler属性指定获取下一个批次数据的索引。

当我们设置DataLoader的shuffle属性为True时,会根据batch_size属性传入的批次大小自动构造sample返回下一个批次的索引。

当我们不启用shuffle属性时,就可以通过batch_sampler属性自定义sample来返回下一批的索引,注意这时候不可用使用 batch_size, shuffle, sampler, 和drop_last属性。

如下所示为自定义MySampler,它继承自Sampler,由传入dataset的长度产生对应的索引,例如上面有9个数据,那么产生索引[0, 8]。

根据批次大小batch_size计算出总批次数,例如当batchsize是3,那么9/3=3,即总共有3个批次。

重写__iter__()方法按批次返回索引,即第一批返回[0, 1, 2],第二批返回[3, 4, 5]以此类推。

__len__()方法返回总的批次数,即3个批次。

class MySampler(Sampler):
    def __init__(self, dataset, batchsize):
        super(Sampler, self).__init__()
        self.dataset = dataset
        self.batch_size = batchsize		# 每一批数据量
        self.indices = range(len(dataset))	# 生成数据集的索引
        self.count = int(len(dataset) / self.batch_size)	# 一共有多少批

    def __iter__(self):
        for i in range(self.count):
            yield self.indices[i * self.batch_size: (i + 1) * self.batch_size]

    def __len__(self):
        return self.count

collate处理数据

当我们拿到数据如果希望进行一些预处理而不是直接返回,这时候就需要collate_fn属性来指定处理和返回数据的方法,如果不指定该属性,默认会将普通的NumPy数组转换为PyTorch的tensor并直接返回。

如下所示为自定义的my_collate()函数,默认传入获得的一个批次的数据data,例如之前返回一批数据[1, 2, 3],这里遍历数据并平方之后放在res数组中返回[1, 4, 9]

def my_collate(data):
    res = []
    for d in data:
        res.append(d ** 2)
    return res

有了上面的索引获取类MySampler和数据处理函数my_collate(),就可以使用DataLoader自定义获取批数据了。

首先DataLoader通过my_sampler返回的索引[0, 1, 2]去dataset拿到数据[1, 2, 3],然后传递给my_collate进行平方操作,然后返回一个批次的结果为[1, 4, 9],一共有三个批次的数据。

dataset = MySet()	# 定义数据集
my_sampler = MySampler(dataset, 3)		# 实例化MySampler

data_loader = DataLoader(dataset, batch_sampler=my_sampler, collate_fn=my_collate)

for data in data_loader:	# 按批次获取数据
    print(data)
'''
[1, 4, 9]
[16, 25, 36]
[49, 64, 81]
'''

总结

以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。 

您可能感兴趣的文章:
阅读全文