当前位置: 首页 > news >正文

从0开始深度学习(7)——线性回归的简洁实现

在从0开始深度学习(5)——线性回归的逐步实现中,我们手动编写了数据构造模块、损失函数模块、优化器等,但是在现代深度学习框架下,这些已经包装好了
本章展示如果利用深度学习框架简洁的实现线性回归

0 导入头文件

import random
import torch
import matplotlib.pyplot as plt
from torch.utils import data
import numpy as np
from torch import nn#nn是神经网络的缩写

1 生成数据集

和之前的数据一样

def synthetic_data(w, b, num_examples):  #@save"""生成y=Xw+b+噪声"""X = torch.normal(0, 1, (num_examples, len(w)))y = torch.matmul(X, w) + by += torch.normal(0, 0.01, y.shape)return X, y.reshape((-1, 1))true_w = torch.tensor([2, -3.4])# 真实的W,是个二维张量
true_b = 4.2# 真实的b
features, labels = synthetic_data(true_w, true_b, 1000)# 生成1000个点# 绘制散点图
plt.scatter(features[:, 0].numpy(), labels.numpy(), 1.0)
plt.xlabel('Feature')
plt.ylabel('Label')
plt.title('Scatter Plot of Generated Data')
plt.show()

2 读取数据

直接使用torch中的TensorDatasetDataLoader

  • TensorDataset 是 PyTorch 中的一个类,它将数据和对应的标签组合成一个数据集对象。
  • DataLoader 是 PyTorch 提供的一个迭代器,可以用来批量加载数据,并且能够处理多线程数据读取、数据打乱等任务。
# 读取数据
def load_data(data_array,batch_size):dataset=data.TensorDataset(*data_array)return data.DataLoader(dataset,batch_size,shuffle=True)batch_size=10
data_iter=load_data((features,labels),batch_size)

3 定义模型

直接使用torch自带的神经网络中的全连接层,全连接层和线性回归模型都使用线性变换来生成输出, 所以可以用全连接层来实现线性回归

net = nn.Sequential(nn.Linear(2, 1))
# 第一个参数是输出的特征形状,第二个是输出的特征形状
# 因为我们的w是个二维向量,所以这里的形状是2

4 初始化参数

我们的函数是 y = w x + b y=wx+b y=wx+b,所以有一个权重 w w w和偏置项 b b b

#初始化权重,通常情况下,权重可以从一个正态分布中初始化,这样可以确保权重的初始值既不是太大也不是太小,有助于模型的收敛。
net[0].weight.data.normal_(0,0.01)# 从均值为 0、标准差为 0.01 的正态分布中初始化权重。
#初始化偏置项,偏置通常初始化为 0
net[0].bias.data.fill_(0)

5 定义损失函数和优化器

之前是手写的,这里我们可以直接使用torch自带的

# 定义损失函数
loss=nn.MSELoss()
#定义优化算法
trainer=torch.optim.SGD(net.parameters(),lr=0.01)
#第一个参数是指,返回所有需要更新的参数,第二个是学习率

6 训练模型

注意: 每次都要初始化梯度为0,避免梯度累积,每次反向传播之前将梯度清零,可以确保每次更新都是基于当前批次的数据

total_epochs=3
for epoch in range(total_epochs):for X,y in data_iter:# X是特征数据,y是标签l=loss(net(X),y)# 前向传播,生成预测,并计算损失trainer.zero_grad()# 初始化梯度l.backward()# 反向传播计算梯度trainer.step()# 调用优化器更新参数l=loss(net(features),labels)print(f'epoch {epoch + 1}, loss {l:f}')

7 评估模型

最后和我们的真实权重 w w w和偏置项 b b b做差,观察差距

w = net[0].weight.data
print('w的估计误差:', true_w - w.reshape(true_w.shape))
b = net[0].bias.data
print('b的估计误差:', true_b - b)
http://www.lryc.cn/news/457442.html

相关文章:

  • 【网络安全 | Java代码审计】华夏ERP(jshERP)v2.3
  • Setting the value of ‘*‘ exceeded the quota
  • 前端页面模块修改成可动态生成数据模块——大部分数据为GPT生成(仅供学习参考)
  • 5.错误处理在存储过程中的重要性(5/10)
  • 【WebGis开发 - Cesium】如何确保Cesium场景加载完毕
  • 【数据结构】6道经典链表面试题
  • 等保测评1.0到2.0的演变发展
  • yum 源配置
  • 通过AI技术克服自动化测试难点(上)
  • 等保测评:如何建立有效的网络安全监测系统
  • yjs12——pandas缺失值的处理
  • 噪声分布 双峰,模拟函数 或者模拟方法 python人工智能 深度神经网络
  • 5个免费ppt模板网站推荐!轻松搞定职场ppt制作!
  • HTML5+Css3(背景属性background)
  • 高亚科技助力优巨新材,打造高效数字化研发项目管理平台
  • 用布尔表达式巧解数字电路图
  • 面试--开源框架面试题集合
  • 如何选择医疗器械管理系统?盘谷医疗符合最新版GSP要求
  • shell 脚本批量更新本地git仓库
  • Linux相关概念和易错知识点(12)(命令行参数、环境变量、本地变量)
  • wenserver中 一些常见的 错误码
  • 【电路笔记】-求和运算放大器
  • java实现桌面程序开机自启动
  • Vuex 使用实例
  • 深度分离卷积
  • JSONL 文件的检查和修订器
  • 输电线路悬垂线夹检测无人机航拍图像数据集,总共1600左右图片,悬垂线夹识别,标注为voc格式
  • 杭电合集小tips
  • Python的输入输出函数
  • 如何进行搭建与部署云主机?