当前位置: 首页 > news >正文

Python(TensorFlow)衍射光学层卷积算法模拟(英伟达GPU)

🎯要点

🎯衍射光学卷积算法模拟 | 🎯模拟或数字电子计算之前加入一层光学计算 | 🎯前馈卷积神经网络计算成像系统对输入图像进行分类 | 🎯相位掩模利用线性空间不变成像系统执行固有卷积

📜用例 Python非线性光学映射数据压缩算法

🍪语言内容分比

在这里插入图片描述
在这里插入图片描述

🍇Python随机梯度下降算法

成本函数或损失函数是通过改变决策变量来最小化(或最大化)的函数。许多机器学习方法都在解决表面下的优化问题。它们倾向于通过调整模型参数(如神经网络的权重和偏差、随机森林或梯度提升的决策规则等)来最小化实际输出和预测输出之间的差异。

在回归问题中,通常具有输入变量 x = ( x 1 , … , x r ) x =\left(x_1, \ldots, x_r\right) x=(x1,,xr) 的向量和实际输出 y y y。您想要找到一个将 x x x 映射到预测响应 f ( x ) f( x ) f(x) 的模型,以便 f ( x ) f( x ) f(x) 尽可能接近 y y y。例如,您可能想要根据某人在公司工作的年数或教育水平等输入来预测某人的工资等输出。

您的目标是最小化预测 f ( x ) f( x ) f(x) 与实际数据 y y y 之间的差异。这种差异称为残差。在此类问题中,您希望最小化残差平方和,其残差平方和 = Σ i ( y i − f ( x i ) ) 2 =\Sigma_{ i }\left(y_{ i }-f\left( x _{ i }\right)\right )^2 =Σi(yif(xi))2 对于所有观测值 i = 1 , … , n i=1, \ldots, n i=1,,n,其中 n n n 是观测值总数。或者,您可以使用均方误差 (MSE = SSR ⁡ / n ) =\operatorname{SSR} / n) =SSR/n) 代替残差平方和。

最小化残差平方和和均方误差都使用实际输出和预测输出之差的平方。差异越小,预测越准确。差异为零表示预测与实际数据相同。

通过调整模型参数来最小化残差平方和或均方误差。例如,在线性回归中,你想要找到函数 f ( x ) = b 0 + b 1 x 1 + ⋯ + b r x r f( x )=b_0+b_1 x_1+\cdots+b_{ r } x_{ r } f(x)=b0+b1x1++brxr,因此你需要确定权重 b 0 , b 1 , … , b r b_0, b_1, \ldots , b_{ r } b0,b1,,br 最小化残差平方和或均方误差。

在分类问题中,输出 y y y 是分类的,通常为 0 或 1 。例如,您可能尝试预测电子邮件是否是垃圾邮件。在二进制输出的情况下,可以方便地最小化交叉熵函数,该函数也取决于实际输出 y i y_{ i } yi 和相应的预测 p ( x i ) p\left( x _{ i }\right) p(xi)
H = − ∑ i ( y i log ⁡ ( p ( x i ) ) + ( 1 − y i ) log ⁡ ( 1 − p ( x i ) ) ) H=-\sum_i\left(y_i \log \left(p\left( x _i\right)\right)+\left(1-y_i\right) \log \left(1-p\left( x _i\right)\right)\right) H=i(yilog(p(xi))+(1yi)log(1p(xi)))
在常用于解决分类问题的逻辑回归中,函数 p ( x ) p( x ) p(x) f ( x ) f( x ) f(x) 定义如下:
p ( x ) = 1 1 + exp ⁡ ( − f ( x ) ) f ( x ) = b 0 + b 1 x 1 + ⋯ + b r x r \begin{gathered} p( x )=\frac{1}{1+\exp (-f( x ))} \\ f( x )=b_0+b_1 x_1+\cdots+b_r x_r \end{gathered} p(x)=1+exp(f(x))1f(x)=b0+b1x1++brxr
同样,您需要找到权重 b 0 、 b 1 、 … 、 b r b_0、b_1、\ldots、b_r b0b1br,但这一次它们应该最小化交叉熵函数。

在微积分中,函数的导数显示当您修改其参数时值的变化量。导数对于优化很重要,因为零导数可能表示最小值、最大值或鞍点。

多个自变量 v 1 , … , v r v_1, \ldots, v_{ r } v1,,vr 的函数 C C C 的梯度用 ∇ C ( v 1 , … , v r ) \nabla C\left(v_1, \ldots, v_{ r }\right) C(v1,,vr) 表示,并定义为 C C C 对每个自变量的偏导数的向量函数: ∇ C = ( ∂ C / ∂ v 1 , … , ∂ C / v r ) \nabla C=\left(\partial C / \partial v_1, \ldots, \partial C / v_r\right) C=(C/v1,,C/vr)。符号 ∇ \nabla 称为 nabla。

函数 C C C 在给定点的梯度的非零值定义了 C C C 最快增长的方向和速率。使用梯度下降时,您对成本函数下降最快的方向感兴趣。该方向由负梯度 − ∇ C -\nabla C C 确定。

基本梯度下降

这是该算法的基本实现,从任意点开始,迭代地将其移向最小值,并返回一个有望达到或接近最小值的点:

def gradient_descent(gradient, start, learn_rate, n_iter):vector = startfor _ in range(n_iter):diff = -learn_rate * gradient(vector)vector += diffreturn vector

在应用gradient_descent()之前,您可以添加另一个终止条件:

import numpy as npdef gradient_descent(gradient, start, learn_rate, n_iter=50, tolerance=1e-06
):vector = startfor _ in range(n_iter):diff = -learn_rate * gradient(vector)if np.all(np.abs(diff) <= tolerance):breakvector += diffreturn vector

您只需要一条语句来测试梯度下降实现:

>>> gradient_descent(
...     gradient=lambda v: 2 * v, start=10.0, learn_rate=0.2
... )
2.210739197207331e-06

随机梯度下降算法

随机梯度下降算法是梯度下降的一种改进。在随机梯度下降中,您仅使用观测值的随机一小部分而不是全部来计算梯度。在某些情况下,这种方法可以减少计算时间。

import numpy as npdef sgd(gradient, x, y, start, learn_rate=0.1, batch_size=1, n_iter=50,tolerance=1e-06, dtype="float64", random_state=None
):if not callable(gradient):raise TypeError("'gradient' must be callable")dtype_ = np.dtype(dtype)x, y = np.array(x, dtype=dtype_), np.array(y, dtype=dtype_)n_obs = x.shape[0]if n_obs != y.shape[0]:raise ValueError("'x' and 'y' lengths do not match")xy = np.c_[x.reshape(n_obs, -1), y.reshape(n_obs, 1)]seed = None if random_state is None else int(random_state)rng = np.random.default_rng(seed=seed)vector = np.array(start, dtype=dtype_)learn_rate = np.array(learn_rate, dtype=dtype_)if np.any(learn_rate <= 0):raise ValueError("'learn_rate' must be greater than zero")batch_size = int(batch_size)if not 0 < batch_size <= n_obs:raise ValueError("'batch_size' must be greater than zero and less than ""or equal to the number of observations")n_iter = int(n_iter)if n_iter <= 0:raise ValueError("'n_iter' must be greater than zero")tolerance = np.array(tolerance, dtype=dtype_)if np.any(tolerance <= 0):raise ValueError("'tolerance' must be greater than zero")for _ in range(n_iter):rng.shuffle(xy)for start in range(0, n_obs, batch_size):stop = start + batch_sizex_batch, y_batch = xy[start:stop, :-1], xy[start:stop, -1:]grad = np.array(gradient(x_batch, y_batch, vector), dtype_)diff = -learn_rate * gradif np.all(np.abs(diff) <= tolerance):breakvector += diffreturn vector if vector.shape else vector.item()

随机梯度下降的动量

import numpy as npdef sgd(gradient, x, y, start, learn_rate=0.1, decay_rate=0.0, batch_size=1,n_iter=50, tolerance=1e-06, dtype="float64", random_state=None
):if not callable(gradient):raise TypeError("'gradient' must be callable")dtype_ = np.dtype(dtype)x, y = np.array(x, dtype=dtype_), np.array(y, dtype=dtype_)n_obs = x.shape[0]if n_obs != y.shape[0]:raise ValueError("'x' and 'y' lengths do not match")xy = np.c_[x.reshape(n_obs, -1), y.reshape(n_obs, 1)]seed = None if random_state is None else int(random_state)rng = np.random.default_rng(seed=seed)vector = np.array(start, dtype=dtype_)learn_rate = np.array(learn_rate, dtype=dtype_)if np.any(learn_rate <= 0):raise ValueError("'learn_rate' must be greater than zero")decay_rate = np.array(decay_rate, dtype=dtype_)if np.any(decay_rate < 0) or np.any(decay_rate > 1):raise ValueError("'decay_rate' must be between zero and one")batch_size = int(batch_size)if not 0 < batch_size <= n_obs:raise ValueError("'batch_size' must be greater than zero and less than ""or equal to the number of observations")n_iter = int(n_iter)if n_iter <= 0:raise ValueError("'n_iter' must be greater than zero")tolerance = np.array(tolerance, dtype=dtype_)if np.any(tolerance <= 0):raise ValueError("'tolerance' must be greater than zero")diff = 0for _ in range(n_iter):# Shuffle x and yrng.shuffle(xy)for start in range(0, n_obs, batch_size):stop = start + batch_sizex_batch, y_batch = xy[start:stop, :-1], xy[start:stop, -1:]grad = np.array(gradient(x_batch, y_batch, vector), dtype_)diff = decay_rate * diff - learn_rate * gradif np.all(np.abs(diff) <= tolerance):breakvector += diffreturn vector if vector.shape else vector.item()

👉参阅、更新:计算思维 | 亚图跨际

http://www.lryc.cn/news/423549.html

相关文章:

  • iOS开发进阶(二十二):Xcode* 离线安装 iOS Simulator
  • Prostgresql的Timescaledb插件/扩展部署
  • 分布式知识总结(一致性Hash算法)
  • 图数据库在社交网络分析中的应用
  • Git基础使用教程
  • 技术速递|Python in Visual Studio Code 2024年8月发布
  • 【话题】重塑未来:AI辅助编程对程序员工作的影响与应对策略
  • 在Debian上安装freeswitch
  • 论文分享 | Fuzz4All: 基于大语言模型的通用模糊测试
  • VS Code 配置docker 管理员权限终端
  • 使用Linux实现FTP云盘1
  • tombo resquiggle
  • vue3获取vue实例 并注册全局属性方法
  • function calling后,如何让大模型进行自然语言输出?
  • Android笔试面试题AI答之Kotlin(8)
  • LVS服务的搭建之NAT模式、DR模式的搭建实战
  • Raft分布式存储
  • 【Linux】使用nm命令查看动态库包含的符号表
  • 你还不知道苹果手机截长图的方法?4 种方法都可以
  • C++选择题带答案
  • Unity动画模块 之 简单创建一个序列帧动画
  • 学会高效记录并整理编程学习笔记
  • Llama 3.1中文微调数据集已上线,超大模型一键部署
  • css实现太极图
  • Android 13 移植EthernetSettings/Ethernet更新
  • 极狐GitLab 如何设置访问令牌前缀?
  • leetcode日记(72)最大矩形
  • 自驾畅游保定:参观总督署,品美食文化
  • 我常用的几个傻瓜式爬虫工具,收藏!
  • 数据分析2 Numpy+Scipy+Matplotlib+Pandas