当前位置: 首页 > news >正文

pytorch 笔记:torch.optim.Adam

  •  torch.optim.Adam 是一个实现 Adam 优化算法的类。
  • Adam 是一个常用的梯度下降优化方法,特别适合处理大规模数据集和参数的深度学习模型
torch.optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0, amsgrad=False, *, foreach=None, maximize=False, capturable=False, differentiable=False, fused=None)
params待优化参数的可迭代对象,或定义参数组的字典
lr学习率,默认为 1e-3
betas用于计算梯度及其平方的移动平均的系数,默认为 (0.9, 0.999)
eps为了提高数值稳定性而添加到分母的项,默认为 1e-8
weight_decay权重衰减(L2惩罚),默认为 0
amsgrad是否使用 AMSGrad 变种,该变种来源于论文 "On the Convergence of Adam and Beyond",默认为 False
foreach是否使用优化器的 foreach 实现。默认情况下,如果未指定,则在 CUDA 上尝试使用 foreach 而不是循环实现,因为它通常性能更好。
maximize是否最大化目标函数,默认为 False(即最小化目标函数)
differentiable训练中的优化器步骤是否可以进行自动微分。否则,step() 函数将在 torch.no_grad() 上下文中运行。如果不打算通过此实例运行自动微分,请将其设置为 False,默认为 False。
fused是否使用融合实现(仅限 CUDA)。目前支持 torch.float64、torch.float32、torch.float16 和 torch.bfloat16,默认为 None。

 

http://www.lryc.cn/news/404797.html

相关文章:

  • 开源AI智能名片小程序:深度剖析体验优化策略,激活小程序生命力的运营之道
  • ML.Net 学习之使用经过训练的模型进行预测
  • 为什么 centos 下使用 tree 命令看不见 .env 文件
  • 数据库基础与性能概述及相关术语
  • docker基于外部缓存加速构建方案
  • 【C语言】 作业11 链表+实现函数封装
  • 【Ubuntu】Ubuntu20修改MAC地址
  • ClickHouse集成LDAP实现简单的用户认证
  • C语言-预处理详解
  • 计算机网络-VLAN间通信(三层通信)模拟实现
  • 【JAVA】数据类型及变量
  • 微软蓝屏事件暴露的网络安全问题
  • 11 - FFmpeg - 编码 AAC
  • OS Copilot初体验的感受与心得
  • Ajax学习笔记
  • 医学深度学习与机器学习融合的随想
  • 坑人的macos tar 命令 (实际上是bsdtar)换用 gnu tar
  • 【SpringBoot3】全局异常处理
  • vue-Treeselect
  • 【机器学习框架TensorFlow和PyTorch】基本使用指南
  • matlab 中的methods(Access = protected) 是什么意思
  • 【漏洞复现】Netgear WN604 downloadFile.php 信息泄露漏洞(CVE-2024-6646)
  • 图像处理 -- ISP调优(tuning)的步骤整理
  • 【中项】系统集成项目管理工程师-第4章 信息系统架构-4.2系统架构
  • node.js中nodemon : 无法加载和使用问题,这是由于windows安全策略影起的按如下操作即可
  • 【SD】 Stable Diffusion(SD)原理详解与ComfyUI使用 2
  • 【学习笔记】无人机系统(UAS)的连接、识别和跟踪(七)-广播远程识别码(Broadcast Remote ID)
  • VMware 虚拟机 ping 不通原因排查
  • websocket状态机
  • JCR一区级 | Matlab实现CPO-Transformer-LSTM多变量回归预测【2024新算法】