当前位置: 首页 > article >正文

pytorch基本运算-导数和f-string

引言

在前序对机器学习的探究过程中,我们已经深刻体会到人工智能到处都有微分求导运算,相关文章链接包括且不限于:
BP神经网络
逻辑回归
对于pytorch张量,求导运算必不可少,所以本次就专门来学习一下。

f-string的用法

f-string是python语言里面一种简洁且强大的字符串格式化方法,对内容的引用和输出较为高效。

确实也可以不适用f-string,但刚好学习到导数计算比较简单,所以就一起学习一下。

f-string以“f”或“F”开头,用单引号“‘”和“’”引用自由添加的字符串,如果要引用变量,就用大括号“{}”包起来。

常规输出

常规输出格式:f+‘输出内容+{“引用内容”}’。示例代码:

h = 0.1234567
print(f'h当前值:{h}')


这个代码的运行效果:h当前值:0.1234567
在这里插入图片描述

控制小数位数输出

常规输出格式:f+‘输出内容+{“引用内容:.xf”}’。

“引用内容:.xf”的意思是,对浮点数f,保留x位小数。示例代码:

h = 0.1234567
print(f'h当前值:{h}')
print(f'h当前值(1位小数):{h:.1f}')
print(f'h当前值(3位小数):{h:.3f}')
print(f'h当前值(5位小数):{h:.5f}')
print(f'h当前值(8位小数):{h:.8f}')
print(f'h当前值(10位小数):{h:.10f}')

在这里插入图片描述
由图2可见,h的当前值按照x的设置量调整了小数位数。

如果想把代码写得紧凑,比如写成一个for循环,上述代码可优化为:

h = 0.1234567
print(f'h当前值:{h}')
print(f'h当前值(1位小数):{h:.1f}')
print(f'h当前值(3位小数):{h:.3f}')
print(f'h当前值(5位小数):{h:.5f}')
print(f'h当前值(8位小数):{h:.8f}')
print(f'h当前值(10位小数):{h:.10f}')
for i in range(10):print(f'h当前值保留{i}位小数:{h:.{i}f}')

需要注意的是,引用的变量应该用大括号"{}"包起来。

代码运行效果为:
在这里插入图片描述

pytorch导数

计算导数的定义式为:
f ′ ( x ) = lim ⁡ x → 0 f ( x + h ) − f ( x ) h f^{'}(x)=\lim_{x \to 0}\frac{f(x+h)-f(x)}{h} f(x)=x0limhf(x+h)f(x)
基于此,继续优化代码:

h = 0.1234567
print(f'h当前值:{h}')
print(f'h当前值(1位小数):{h:.1f}')
print(f'h当前值(3位小数):{h:.3f}')
print(f'h当前值(5位小数):{h:.5f}')
print(f'h当前值(8位小数):{h:.8f}')
print(f'h当前值(10位小数):{h:.10f}')
for i in range(5):print(f'h当前值保留{i}位小数:{h:.{i}f}')# 定义原函数
def f(x):return 3*x**2-3*x# 定义求导函数
def numerical_lim(f, x, h):return (f(x + h) - f(x)) / h# 修改偏移量
h=0.1
for i in range(10):print(f'h={h:.5f}.时的函数值为{f(h):.5f},导数值为{numerical_lim(f,1,h):.8f}')h*=0.1

这里先定义了原函数:

def f(x):
return 3x**2-3x

然后定义了原函数的导数:

def numerical_lim(f, x, h):
return (f(x + h) - f(x)) / h

最后通过改变自变量偏移量的形式,不断逼近导数的真实值:

h=0.1 for i in range(10):
print(f’h={h:.5f}.时的函数值为{f(h):.5f},导数值为{numerical_lim(f,1,h):.8f}')
h*=0.1

代码运行后的效果为:
在这里插入图片描述
可见,随着偏移量的减小,在x=1位置处,函数f(x)的导数值不断趋向准确值3。

细节说明

由于小数位数的限制,如果继续减小h到h=0.000 000 000 000 000 100,函数f(x)的值和导数值都会变成0。
对此有两种解释:

  1. x此时本身是无穷小量,在f(x)=3x**2-3x中,极小的x计算了平方后,已经远远小于x本身,函数f(x)的值和导数值都是无穷小量,计算效果输出0。
  2. Python 的 float 类型使用 IEEE 754 双精度 64 位浮点数,提供约15-17位十进制有效数字,一旦超出就可能不准。h=0.000000000000000100的1出现在第16位,此时的计算结果就会出现不准。

可运行此时的代码测试:

h = 0.1234567
print(f'h当前值:{h}')
print(f'h当前值(1位小数):{h:.1f}')
print(f'h当前值(3位小数):{h:.3f}')
print(f'h当前值(5位小数):{h:.5f}')
print(f'h当前值(8位小数):{h:.8f}')
print(f'h当前值(10位小数):{h:.10f}')
for i in range(5):print(f'h当前值保留{i}位小数:{h:.{i}f}')# 定义原函数
def f(x):return 3*x**2-3*x# 定义求导函数
def numerical_lim(f, x, h):return (f(x + h) - f(x)) / h# 修改偏移量
h=0.1
for i in range(20):print(f'i={i},h={h:.18f}.时的函数值为{f(h):.18f},导数值为{numerical_lim(f,1,h):.18f}')h*=0.1

在这里插入图片描述

总结

学习了pytorch导数运算和相关的f-string使用方法。

http://www.lryc.cn/news/2402149.html

相关文章:

  • impala中更改公网ip为内网ip
  • 5.RV1126-OPENCV 图形计算面积
  • 一键净化Excel数据:高性能Python脚本实现多核并行清理
  • 【Android基础回顾】一:Binder机制是什么?有什么用?
  • LeetCode 高频 SQL 50 题(基础版) 之 【高级查询和连接】· 上
  • 资产智慧管理安全监测中心
  • 从零开始的云计算——番外实战,iptables防火墙项目
  • 移动网页调试的多元路径:WebDebugX 与其他调试工具的组合使用策略
  • 【基于阿里云搭建数据仓库(离线)】IDEA导出Jar包(包括第三方依赖)
  • 【HarmonyOS 5】鸿蒙HarmonyOS —(cordova)研发方案详解
  • Linux程序运行日志总结
  • 【物联网-TCP/IP】
  • SAP ECC 与 SAP S/4HANA 技术架构全面对比
  • Halcon光度立体法
  • cocos3.X的oops框架oops-plugin-excel-to-json改进兼容多表单导出功能
  • Spring Boot + OpenAI 构建基于RAG的智能问答系统
  • 开源量子模拟引擎:Quantum ESPRESSO本地部署教程,第一性原理计算轻松入门!
  • 算法blog合集
  • 每日八股文6.3
  • Kubernetes (k8s)版本发布情况
  • QT 5.9.2+VTK8.0实现等高线绘制
  • CppCon 2015 学习:3D Face Tracking and Reconstruction using Modern C++
  • Three.js进阶之音频处理与展示
  • 4.2 HarmonyOS NEXT分布式AI应用实践:联邦学习、跨设备协作与个性化推荐实战
  • 兼容老设备!EtherNet/IP转DeviceNet网关解决储能产线通讯难题
  • 健康检查:在 .NET 微服务模板中优雅配置 Health Checks
  • 【Pytorch学习笔记】模型模块08——AlexNet模型详解
  • LabVIEW自感现象远程实验平台
  • AppTrace 视角下 App 一键拉起:提升应用转化率的高效方案​
  • 梯度下降:机器学习优化的核心算法