Pytorch Dataloader 详解

2023-10-29

用 Pytorch 框架训练深度学习模型,怎么能避得开 Dataloader 的使用呢?这个类的各个参数是什么意思?如何用好 Dataloader?本文的初衷,就是试着去回答这些问题。


基本设置

  • dataset:torch.Dataset 子类的一个实例。
  • batch_size:批量大小,默认为 1
  • shuffle:指定是否打乱数据集。默认为 False

在单进程下(num_workers=0),根据是否需要数据加载的可复现性,可以通过 shuffle 参数控制 Dataloader 的随机性。我们之后会看到,多进程下需要更复杂的设置来保证可复现性。


进阶设置

  • sampler:定义如何从数据集中采样数据。当 shuffle=False 时,Pytorch 默认使用 SequentialSampler,从数据集中顺序取出数据;当 shuffle=False 时,Pytorch 会使用 RandomSampler,随机取数据。
    我们可以传入自定义的 Sampler 子类的实例。
    参考:data shuffling in Pytorch dataloaderSamplers of Dataloader

  • num_workers:默认为 0,利用主进程进行数据加载;设置它为一个大于零的整数时,Pytorch 会开启多个子进程,同时进行数据加载。
    那么设置为多少合适呢?一般来说,把它设置为 CPU 内核的个数,是大家常用的准则。
from multiprocessing import cpu_count
n_cpu = cpu_count() # 检查 CPU 内核个数

  • collate_fn:定义数据处理和合并成 batch 的方式。
    它有什么应用场景呢?比如我们想把一系列长度不相等的张量合并为一个 batch——输入的长度不同的 RNN 网络会有这个需求。直接 stack 是行不通的,它要求所有的张量的大小一致。这时可以利用 collate_fn ,把当前 batch 的样本按照当前 batch 的最大长度进行 padding(可以使用辅助函数 pad_sequence),这样就可以组合成 batch 了。
from torch.nn.utils.rnn import pad_sequence, pack_padded_sequence

def collate_fn(train_data):
    train_data.sort(key=lambda data: len(data), reverse=True) # 按照序列长度进行排序
    data_length = [len(data) for data in train_data] 
    train_data = pad_sequence(train_data, batch_first=True, padding_value=0) # 利用 rnn_utils.pad_sequence 进行 padding
    return train_data, data_length

注:这里之所以要先把数据按照长度从大到小排序,是因为我们想载入 batch 数据后,用 pack_padded_sequence() 将填充过的变长序列“压紧”。不过这些是后话。关于如何较好地处理 RNN 变长输入,可以参考文章 pytorch 如何在 LSTM 中输入可变长的序列pytorch RNN 变长输入序列问题

Pytorch 的官网教程 中也有一个例子:

from torch.nn.utils.rnn import pad_sequence

# function to collate data samples into batch tensors
def collate_fn(batch):
    src_batch, tgt_batch = [], []
    for src_sample, tgt_sample in batch:
        src_batch.append(src_sample)
        tgt_batch.append(tgt_sample)

    src_batch = pad_sequence(src_batch, padding_value=PAD_IDX)
    tgt_batch = pad_sequence(tgt_batch, padding_value=PAD_IDX)
    return src_batch, tgt_batch

train_dataloader = DataLoader(train_iter, batch_size=BATCH_SIZE, collate_fn=collate_fn)

利用 Dataloader 中的 collate_fn 函数,可以动态将序列 padding 到当前 batch 中的最大长度,而不是将所有训练数据的序列都 padding 到统一的长度。这样可以加速训练,节省计算。这个细节对于大语言模型的训练还是蛮重要的。



  • drop_last:默认为 False。设置为 True 时,如果数据集的总量不能被 batch_size 整除,那么最后一个不完整的 batch 会被丢掉,保证所有 batch 都是同样大小。

  • worker_init_fn:默认为 None。它需要是一个可调用 (Callable) 的对象,比如 function。它会在每个子进程中被调用,并且把每个子进程相应的 worker id ( [ 0 , num_workers − 1 ] [0, \text{num\_workers} - 1] [0,num_workers1] 之间的整数) 作为输入。
  • generator:默认为 None。它会被用来产生 base_seed

我们可以利用上面两个参数控制多进程下 Dataloader 的随机性。默认情况下:

By default, each worker will have its PyTorch seed set to base_seed + worker_id, where base_seed is a long generated by main process using its RNG or a specified generator.
In worker_init_fn, you may access the PyTorch seed set for each worker with either torch.utils.data.get_worker_info().seed or torch.initial_seed(), and use it to seed other libraries before data loading.

通过下面这种方式,我们可以保证多进程下数据加载的可复现性——运行多次,数据会以相同的顺序和方式被加载、训练。参考:Pytorch: REPRODUCIBILITY

def seed_worker(worker_id):
    worker_seed = torch.initial_seed() % 2**32
    numpy.random.seed(worker_seed)
    random.seed(worker_seed)

g = torch.Generator()
g.manual_seed(0)

DataLoader(
    train_dataset,
    batch_size=batch_size,
    num_workers=num_workers,
    worker_init_fn=seed_worker,
    generator=g,
)

官方文档:torch.utils.data.DataLoader

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Pytorch Dataloader 详解 的相关文章

随机推荐

  • Windows防火墙与TCP、UDP

    当Windows防火墙开启的时候 可能导致一些TCP和UDP监听的端口无法接收到数据或者是数据无法发出去 此时就需要把监听的端口添加到Windows的入栈出栈规则里面 入栈和出栈是相对的 别人访问你 要入栈 你访问别人 叫出栈 将端口添加到
  • 企业运维经典面试题汇总(4)

    1 如何过滤出已知当前目录下yangwen中的所有一级目录 提示 不包含yangwen目录下面目录的子目录及隐藏目录 即只能是一级目录 解答 方法1 通过find直接查找指定类型的文件 root yangwen find yangwen t
  • MP中批量删除,增加,修改实际执行的sql语句

    code GetMapping getNameUpdate public String getNameUpdate RequestBody Map
  • CTF-web 第十三部分 命令注入

    一 基本原理 命令注入指的是 利用没有验证过的恶意命令或代码 对网站或服务器进行渗透攻击 注入有很多种 并不仅仅只有SQL注入 比如 命令注入 Command Injection Eval 注入 Eval Injection 客户端脚本攻击
  • Java 线程池的异常处理机制 错误使用submit导致异常被吞掉,导致UncaughtExceptionHandler不生效

    提交线程池的任务出了异常会怎么样 任务本身出现异常时会怎样呢 我们来看一个例子 提交 10 个任务到线程池异步处理 第 5 个任务抛出一个 RuntimeException 每个任务完成后都会输出一行日志 GetMapping execut
  • CentOS下pdf阅读器

    最初用的是foxit Reader 但用了一段时间感觉CentOS下的foxit Reader真的不太好用 比如 1 每次打开一个PDF文件的时候 既不能自动最大化显示 也不能自动恢复到上次关闭时窗口的大小状态 而只是显示一个非常小的窗口
  • 一个系统测试的完整过程

    转载自http www 51testing com html 68 n 3724968 html 一 需求审查方面 首先我们从最开始接触的文档开始 那就是测需求文档 需求审查主要是我们对需求文档的理解 并熟透整个系统的每个功能和流程 对后期
  • 威联通NAS(QNAP)采用HybridMount挂载百度云网盘

    威联通之前一直不支持挂载百度云网盘 但最近更新了1 9 3761版本的HybridMount 发现已经支持了 下面简要介绍其设置过程 功能介绍 完成设置后 可以从威联通的File Station访问百度云帐户 还可以访问通过SMB NFS
  • qt获取文件 图片大小

    https www it1352 com 1270326 html int size 0 QFile myFile 图片路径 if myFile open QIODevice ReadOnly size myFile size myFile
  • Java获取部门组织树

    本文章记录两种方式获取部门树型结构 一 使用mybatis 因循环查库 比较耗时 二 递归查询 一 使用mybatis实现 1 编写实体类 TreeVO java Data public class TreeVO private Strin
  • Multi-modal Text Recognition Networks: Interactive Enhancements between Visual and Semantic组会

    文本识别网络不断地进步 从单纯地只利用视觉信息到现在的大多数网络都开始结合语义信息 因此现在的文本识别网络可以分为两个部分 分别是VM和LM 那么目前的VM和LM结合的方法可以总结为以下四类 VM之后接LM VM和LM输出的特征结合之后作为
  • jsp脚本案例错误修正

    标题在练习jsp脚本案例中 新建第三个jsp File时 位置变成了这样 代码是正确的 但是运行结果报错 然后把test3 jspmove到WEB INF文件夹下就可以运行正常 运行结果
  • 【Django】创建用户,中间件,表单组件

    HTTP无状态协议 是指协议对于交互性场景没有记忆能力 每次客户端检索网页时 客户端打开一个单独的连接到 Web 服务器 服务器会自动不保留之前客户端请求的任何记录 创建用户对象的三种方法 create 创建一个普通用户 密码是明文的 cr
  • 网络原理笔记一

    文章目录 1 局域网 LAN 2 广域网 WAN 3 网络通信基础 1 IP地址 2 端口号 3 认识协议 4 协议分层 1 网络模型 2 网络数据传输的基本流程 1 局域网 LAN 局域网全称 Local Area Network 局域网
  • 可做毕设/基于opencv的手势识别完整项目/python3.9/万字长文手把手带你学

    可做毕设 基于OpenCV的手势识别 python3 9 前言 正文 图片获取与处理 特征提取 模型训练 界面设计 后语 前言 在一切的开始前 我想先感谢 Brielleqqqqqqjie 大神 没有ta三年前的文章指导 这个小作品一路的学
  • 超详细Vue实现导航栏绑定内容锚点+滚动动画

  • Allure美化测试报告

    1 1 Allure介绍 Allure是一款轻量级并且非常灵活的开源测试报告框架 它支持绝大多数测试框架 例如TestNG Pytest JUint等 它简单易用 易于集成 1 2 Allure下载 到git上下载指定版本的Allure G
  • 标准IO--fgets()

    函数原型 char fgets char s int size FILE stream 参数 s 字符型指针 指向存储读入数据的内存缓冲区的首地址 1 char s 100 2 char s char malloc 100 sizeof c
  • SpringBoot-自定义配置-覆盖自动配置

    Spring Boot 不是有很牛逼的自动配置吗 而且它的牛叉之一就是自动配置 让工程师从繁琐的 重复的配置中解放出来 为什么还要自定义配置 Maven中的中打开pom xml 增加如下配置
  • Pytorch Dataloader 详解

    用 Pytorch 框架训练深度学习模型 怎么能避得开 Dataloader 的使用呢 这个类的各个参数是什么意思 如何用好 Dataloader 本文的初衷 就是试着去回答这些问题 基本设置 dataset torch Dataset 子