当前位置: 首页 > news >正文

PyTorch 从tensor.grad 看 backward(权重参数) 和 gradient accumulated

1. 新建一个自变量 tensor x

import torchx = torch.ones(1, requires_grad=True)
print(x)

1. 输出:

tensor([1.], requires_grad=True)

2. 写一个 forward

import torchx = torch.ones(1, requires_grad=True)
y = x**2
z = x**3

3. y, z 都 backward

import torchx = torch.ones(1, requires_grad=True)
y = x**2
z = x**3y.backward()
z.backward()print(x.grad)

3.输出

tensor([5.])

4. 单独 y backward

import torchx = torch.ones(1, requires_grad=True)
y = x**2
z = x**3y.backward()print(x.grad)

4. 输出

tensor([2.])

5. 单独 z backward

import torchx = torch.ones(1, requires_grad=True)
y = x**2
z = x**3z.backward()print(x.grad)

5. 输出

tensor([3.])

6. tensor.grad.zero_()

import torchx = torch.ones(1, requires_grad=True)
y = x**2
y.backward()
print(x.grad)x.grad.zero_()
z = x**3
z.backward()
print(x.grad)

输出:

tensor([2.])
tensor([3.])

向量形式

注意由于 x 此时不是标量,所以 执行 y.backward()的时候必须给一个参数。
参数的含义是权重。
gradient=torch.ones(y.size()) 中的 gradient 参数指定了每个 y 元素对于 x的梯度的权重。在这里,gradient 设置为全1的张量,表示每个 y 元素对于损失函数的梯度权重都是1。

这意味着所有的梯度将被等权重地传播回输入 x。如果你想要为不同的元素分配不同的权重,你可以修改 gradient 参数以实现不同的梯度计算策略。

import torchx = torch.tensor([[-1.5], [2.7]], requires_grad=True)
print(x)y = torch.empty([3,1])
y[0] = x[0]**2
y[1] = x[1]**3
y[2] = x[1]**4
y.backward(gradient=torch.ones(y.size()))
print(x.grad)dy0 = 2*x[0]
dy1 = 3*x[1]**2
dy2 = 4*x[1]**3dy_dx0 = dy0
dy_dx1 = dy1+dy2print(dy_dx0)
print(dy_dx1)

输出

tensor([[-1.5000],[ 2.7000]], requires_grad=True)tensor([[ -3.0000],[100.6020]])tensor([-3.], grad_fn=<MulBackward0>)
tensor([100.6020], grad_fn=<AddBackward0>)

权重不一样

import torchx = torch.tensor([[-1.5], [2.7]], requires_grad=True)
print(x)y = torch.empty([3,1])
y[0] = x[0]**2
y[1] = x[1]**3
y[2] = x[1]**4
y.backward(gradient=torch.tensor([[0.5],[-2.],[1.5]]))
print(x.grad)dy0 = 2*x[0]
dy1 = 3*x[1]**2
dy2 = 4*x[1]**3dy_dx0 = 0.5*dy0
dy_dx1 = -2*dy1+1.5*dy2print(dy_dx0)
print(dy_dx1)

输出

tensor([[-1.5000],[ 2.7000]], requires_grad=True)
tensor([[-1.5000],[74.3580]])
tensor([-1.5000], grad_fn=<MulBackward0>)
tensor([74.3580], grad_fn=<AddBackward0>)
http://www.lryc.cn/news/219627.html

相关文章:

  • fedora 命令行代理proxychains 使用flatpak下载 flathub包
  • 介绍kamailio的dialog模块
  • 性能优于BERT的FLAIR:一篇文章入门Flair模型
  • Weblogic ssrf漏洞复现
  • Memcached构建缓存服务器
  • vue3+element Plus实现弹框的拖拽、可点击底层页面功能
  • Vue+elementui 纯前端实现Excel导入导出功能(区分表头标题)
  • 使用Scrapy的调试工具和日志系统定位并解决爬虫问题
  • Pycharm安装配置Pyqt5教程(保姆级)
  • 基于单片机的养殖场温度控制系统设计
  • 时序分解 | Matlab实现EMD经验模态分解时间序列信号分解
  • 解决无法进入MERCURY路由器管理界面的问题 水星网络路由器
  • Ansible自动化安装部署及使用
  • idea中配置spring boot单项目多端口启动
  • MP4视频文件损坏怎么修复?
  • 使用electron ipcRenderer接收通信消息多次触发
  • Spring事务最佳应用指南(包含:事务传播类型、事务失效场景、使用建议、事务源码分析)
  • Go语言的Http包及冒泡排序解读
  • vue二维码生成插件qrcodejs2-fix、html生成图片插件html2canvas、自定义打印内容插件print-js的使用及问题总结
  • [SSD综述1.8] 固态存储市场发展分析与预测_固态存储技术发展方向(2022to2023)
  • 【Linux】多路IO复用技术③——epoll详解如何使用epoll模型实现简易的一对多服务器(附图解与代码实现)
  • 【unity实战】实现类似英雄联盟的buff系统(附项目源码)
  • Draft-P802.11be-D3.2协议学习__$9-Frame-Format__$9.3.1.22-Trigger-frame-format
  • vSLAM中IMU预积分的作用--以惯性导航的角度分析
  • c++ libevent demo
  • 51单片机锅炉监控系统仿真设计( proteus仿真+程序+原理图+报告+讲解视频)
  • zip文件解压缩命令全
  • 章鱼网络进展月报 | 2023.10.1-10.31
  • 数据结构 | 单链表专题【详解】
  • 前端基础之BOM和DOM