当前位置: 首页 > news >正文

Autocasting和GradScaler

Autocasting和GradScaler是什么

  • torch.autocast 是一个上下文管理器,它可以将数据类型从 float32 自动转换为 float16。这可以提高性能,因为 float16 比 float32 更小,因此可以更快地处理。
  • torch.cuda.amp.GradScaler 是一个类,它可以自动缩放梯度,以便在使用混合精度时保持准确性。这很重要,因为使用混合精度时,梯度可能会被缩小,从而导致准确性下降。

bfloat16是什么

BFloat16 (Brain Floating Point)是一种16bit的浮点数格式,动态表达范围和float32是一样的,但是精度低。

动态表达范围是指浮点数可以表示的数值范围。

BFloat16 的精度降低是因为它使用 16 位来存储数据,而 float32 使用 32 位来存储数据。

BFloat16 的名称来自它的开发者,Google Brain。

Autocasting

Autocast 实例可以作为上下文管理器或装饰器,允许您的脚本的部分在混合精度下运行。

autocast 应该只包装您的网络的前向传递,包括损失计算。不推荐在自动转换下进行反向传递。反向操作在与相应的正向操作相同的类型下运行。

# Creates model and optimizer in default precision
model = Net().cuda()
optimizer = optim.SGD(model.parameters(), ...)for input, target in data:optimizer.zero_grad()# Enables autocasting for the forward pass (model + loss)with autocast():output = model(input)loss = loss_fn(output, target)# Exits the context manager before backward()loss.backward()optimizer.step()

在自动转换启用区域中生成的浮点张量可能为 float16

# Creates some tensors in default dtype (here assumed to be float32)
a_float32 = torch.rand((8, 8), device="cuda")
b_float32 = torch.rand((8, 8), device="cuda")
c_float32 = torch.rand((8, 8), device="cuda")
d_float32 = torch.rand((8, 8), device="cuda")with autocast():# torch.mm is on autocast's list of ops that should run in float16.# Inputs are float32, but the op runs in float16 and produces float16 output.# No manual casts are required.e_float16 = torch.mm(a_float32, b_float32)# Also handles mixed input typesf_float16 = torch.mm(d_float32, e_float16)# After exiting autocast, calls f_float16.float() to use with d_float32
g_float32 = torch.mm(d_float32, f_float16.float())

autocast(enabled=False)

# Creates some tensors in default dtype (here assumed to be float32)
a_float32 = torch.rand((8, 8), device="cuda")
b_float32 = torch.rand((8, 8), device="cuda")
c_float32 = torch.rand((8, 8), device="cuda")
d_float32 = torch.rand((8, 8), device="cuda")with autocast():e_float16 = torch.mm(a_float32, b_float32)with autocast(enabled=False):# Calls e_float16.float() to ensure float32 execution# (necessary because e_float16 was created in an autocasted region)f_float32 = torch.mm(c_float32, e_float16.float())# No manual casts are required when re-entering the autocast-enabled region.# torch.mm again runs in float16 and produces float16 output, regardless of input types.g_float16 = torch.mm(d_float32, f_float32)

GradScaler

如果特定操作的前向传递具有 float16 输入,则该操作的反向传递将生成 float16 梯度。

小幅度梯度值可能无法表示为 float16。这些值将刷新为零(“下溢”),因此相应参数的更新将丢失。

为了防止下溢,梯度缩放会将网络的损失乘以一个缩放因子,并在缩放的损失上调用反向传递。然后,通过网络流回的梯度将按相同的因子进行缩放。换句话说,梯度值具有更大的幅度,因此不会刷新为零。

在优化器更新参数之前,应先unscaled每个参数的梯度,以便缩放因子不会干扰学习率。

import torch
from torch import nn, optim# Creates model and optimizer in default precision
model = Net().cuda()
optimizer = optim.SGD(model.parameters(), ...)# Creates a gradient scale object
scale = torch.cuda.amp.GradScaler()for input, target in data:optimizer.zero_grad()# Enables autocasting for the forward pass (model + loss)with autocast():output = model(input)loss = loss_fn(output, target)# Scales the loss before backward()scale.scale(loss).backward()# Unscales the gradients after backward()scale.step(optimizer)scale.update()
http://www.lryc.cn/news/122640.html

相关文章:

  • 头条移动端项目Day03 —— 自媒体素材管理、自媒体文章管理、自媒体文章发布
  • 【ARM 嵌入式 编译系列 9-- GCC 编译符号表(Symbol Table)的详细介绍】
  • Apache Doris 入门教程27:BITMAP精准去重和HLL近似去重
  • bug总结
  • DC电源模块的高转换率
  • 用于网页抓取的最佳 Python 库
  • 异步回调中axios,ajax,promise,cors详解区分
  • IoTDB原理剖析
  • 中国1990-2021连续30年土地利用数据CLCD介绍及下载
  • Tubi 前端测试:迁移 Enzyme 到 React Testing Library
  • Chrome
  • 零代码编程:用ChatGPT批量删除Excel文件中的行
  • GaussDB数据库SQL系列-UNION UNION ALL
  • Azure创建第一个虚拟机
  • Redis 之 缓存预热 缓存雪崩 缓存击穿 缓存穿透
  • Golang 程序性能优化利器 PGO 详解(二):收集样本数据和编译
  • 《格斗之王AI》使用指南
  • 创新引领城市进化:人工智能和大数据塑造智慧城市新面貌
  • iOS开发-处理UIControl触摸事件TrackingWithEvent
  • 学无止境·运维高阶⑤(LVS-DR 群集 配置Nginx负载均衡)
  • badger的mainfest文件解读
  • java导出excel浏览器下载,单线程VS多线程
  • 【rust/egui】(二)看看template的main函数:日志输出以及eframe run_native
  • Eigen在QT中的配置
  • 微服务04-elasticsearch
  • uniapp 微信小程序 订阅消息
  • JDK8日期时间工具类
  • 智汇云舟入选IDC《中国智慧城市数字孪生技术评估,2023》报告
  • 《Zookeeper》源码分析(九)之选举通信网络
  • JVM——栈和堆概述,以及有什么区别?