• 【小白学PyTorch】3 浅谈Dataset和Dataloader


    文章目录:

    1 Dataset基类

    PyTorch 读取其他的数据,主要是通过 Dataset 类,所以先简单了解一下 Dataset 类。在看很多PyTorch的代码的时候,也会经常看到dataset这个东西的存在。Dataset类作为所有的 datasets 的基类存在,所有的 datasets 都需要继承它。

    先看一下源码:
    在这里插入图片描述

    这里有一个__getitem__函数,__getitem__函数接收一个index,然后返回图片数据和标签,这个index通常是指一个list的index,这个list的每个元素就包含了图片数据的路径和标签信息。之后会举例子来讲解这个逻辑

    其实说着了些都没用,因为在训练代码里是感觉不到这些操作的,只会看到通过DataLoader就可以获取一个batch的数据,这是触发去读取图片这些操作的是DataLoader里的__iter__(self)(后面再讲)。

    2 构建Dataset子类

    下面我们构建一下Dataset的子类,叫他MyDataset类:

    import torch 
    from torch.utils.data import Dataset,DataLoader
    
    class MyDataset(Dataset):
        def __init__(self):
            self.data = torch.tensor([[1,2,3],[2,3,4],[3,4,5],[4,5,6]])
            self.label = torch.LongTensor([1,1,0,0])
    
        def __getitem__(self,index):
            return self.data[index],self.label[index]
    
        def __len__(self):
            return len(self.data)
    

    2.1 Init

    • 初始化中,一般是把数据直接保存在这个类的属性中。像是self.data,self.label

    2.2 getitem

    • index是一个索引,这个索引的取值范围是要根据__len__这个返回值确定的,在上面的例子中,__len__的返回值是4,所以这个index会在0,1,2,3这个范围内。

    3 dataloader

    从上文中,我们知道了MyDataset这个类中的__getitem__的返回值,应该是某一个样本的数据和标签(如果是测试集的dataset,那么就只返回数据),在梯度下降的过程中,一般是需要将多个数据组成batch,这个需要我们自己来组合吗?不需要的,所以PyTorch中存在DataLoader这个迭代器(这个名词用的准不准确有待考究)。

    继续上面的代码,我们接着写代码:

    mydataloader = DataLoader(dataset=mydataset,
                              batch_size=1)
    

    我们现在创建了一个DataLoader的实例,并且把之前实例化的mydataset作为参数输入进去,并且还输入了batch_size这个参数,现在我们使用的batch_size是1.下面来用for循环来遍历这个dataloader:

    for i,(data,label) in enumerate(mydataloader):
        print(data,label)
    

    输出结果是:

    意料之中的结果,总共输出了4个batch,每个batch都是只有1个样本(数据+标签),值得注意的是,这个输出过程是顺序的

    我们稍微修改一下上面的DataLoader的参数:

    mydataloader = DataLoader(dataset=mydataset,
                              batch_size=2,
                              shuffle=True)
    
    for i,(data,label) in enumerate(mydataloader):
        print(data,label)
    

    结果是:

    可以看到每一个batch内出现了2个样本。假如我们再运行一遍上面的代码,得到:

    两次结果不同,这是因为shuffle=True,dataset中的index不再是按照顺序从0到3了,而是乱序,可能是[0,1,2,3],也可能是[2,3,1,0]。

    【个人感想】

    Dataloader和Dataset两个类是非常方便的,因为这个可以快速的做出来batch数据,修改batch_size和乱序都非常地方便。有下面两个希望注意的地方:

    1. 一般标签值应该是Long整数的,所以标签的tensor可以用torch.LongTensor(数据)或者用.long()来转化成Long整数的形式。
    2. 如果要使用PyTorch的GPU训练的话,一般是先判断cuda是否可用,然后把数据标签都用to()放到GPU显存上进行GPU加速。
    device = 'cuda' if torch.cuda.is_available() else 'cpu'
    for i,(data,label) in enumerate(mydataloader):
        data = data.to(device)
        label = label.to(device)
        print(data,label)
    

    看一下输出:

    人不可傲慢。
  • 相关阅读:
    Failed to load config "react-app" to extend from.
    An unexpected error occurred: "expected workspace package to exist for "@babel/core"".
    写一个 LRU 缓存函数(#146)
    TERSUS笔记303-06末页
    TERSUS笔记302-08每页条数逻辑
    TERSUS笔记301-显示列表处理+序号+01共几条取值+08每页条数下拉菜单值设置+02共页数计算取值
    TERSUS笔记300-增加
    TERSUS笔记118-多表增删改查完整操作
    Java多线程之二(Synchronized)
    HashMap在JDK1.7中可能出现的并发问题
  • 原文地址:https://www.cnblogs.com/PythonLearner/p/13587125.html
Copyright © 2020-2023  润新知