当前位置: 首页 > news >正文

神经网络学习2

张量(Tensor)是深度学习和科学计算中的基本数据结构,用于表示多维数组。张量可以看作是一个更广义的概念,涵盖了标量、向量、矩阵以及更高维度的数据结构。具体来说,张量的维度可以是以下几种形式:
标量(0维张量):
一个单一的数值。
例如:3.0。
向量(1维张量):
一维数组,即一个数值的列表。
例如:[1.0, 2.0, 3.0]。
矩阵(2维张量):
二维数组,即一个数值的表格。

在 PyTorch 中,张量可以通过 torch.tensor 函数创建。
创建标量张量:

import torch
scalar = torch.tensor(3.0)
print(scalar)  # tensor(3.0)

向量张良

vector = torch.tensor([1.0, 2.0, 3.0])
print(vector)  # tensor([1., 2., 3.])

创建矩阵张量:

matrix = torch.tensor([[1.0, 2.0], [3.0, 4.0]])
print(matrix)  # tensor([[1., 2.], [3., 4.]])

张量有许多有用的属性和方法,例如:
形状(Shape)

print(matrix.shape)  # torch.Size([2, 2])

数据类型(Data Type):

print(matrix.dtype)  # torch.float32

设备(Device):

print(matrix.device)  # 例如:cpu 或 cuda:0

torch.nn是一个实例化的使用,torch.nn.functrion是方法的使用。两个都很好用

卷积操作
在这里插入图片描述

卷积核:卷积核是一个小的矩阵,用于在输入数据上执行卷积操作。它的大小通常比输入数据小得多,例如 3x3、5x5 或 7x7。
滤波器:滤波器是卷积核的另一个名称,它与卷积核的功能相同。

卷积操作是将卷积核应用到输入数据的每个位置,通过滑动窗口的方式逐元素相乘并求和,生成一个新的输出值。以下是卷积操作的步骤:
将卷积核放在输入数据的一个位置上。
逐元素相乘并求和,得到一个新的输出值。
将卷积核移动到下一个位置,重复上述步骤,直到遍历整个输入数据。

卷积核的作用
特征提取:卷积核通过对局部区域的操作,可以提取不同层次的特征,例如边缘、纹理、颜色等。
参数共享:卷积核在整个输入数据上共享,使得模型参数减少,提高计算效率。
空间不变性:卷积核能够捕捉输入数据的空间特征,不受位置变化的影响。

在卷积神经网络中,通常会有多个卷积核,每个卷积核提取不同的特征。因此,卷积层的输出不仅包含空间维度(高度和宽度),还包含深度维度(通道数)。例如,一个卷积层可能有 32 个 3x3 的卷积核,输入是一个 RGB 图像(具有 3 个通道),输出将是 32 个特征图。

权重参数本来就是随机初始化,之后根据优化方法会一轮一轮的不断向最优解逼近
开始数值就是一个初始化数值,然后通过训练慢慢优化,最后得到合适的数值

注意:torchvision.transforms.ToTensor 是用于将 PIL 图像或 NumPy 数组转换为张量的,但它需要一个特定的输入格式。对于 NumPy 数组,可以直接使用 torch.tensor 进行转换。

典型的卷积神经网络期望输入是一个四维张量,形状为 (batch_size, channels, height, width)。
其中,batch_size 表示每个批次的样本数量,channels 表示输入图像的通道数(对于灰度图像通道数为 1,对于彩色图像通道数为 3),height 和 width 表示图像的高度和宽度。
下面是一个简单的卷积操作

import torch
import torch.nn.functional as F
import numpy as np
inputtensor = torch.tensor([[1, 2, 0, 3, 1],[0, 1, 2, 3, 1],[1, 2, 1, 0, 0],[5, 2, 3, 1, 1],[2, 1, 0, 1, 1]], dtype=torch.float32)
# 使用 NumPy 创建卷积核
np_kernel = np.random.randn(3, 3)# 将 NumPy 数组转换为 PyTorch 张量
kernel = torch.tensor(np_kernel, dtype=torch.float32)inputtensor=torch.reshape(inputtensor,(1,1,5,5))
kernel=torch.reshape(kernel,(1,1,3,3))
print(kernel.shape)
print(inputtensor.shape)output=F.conv2d(inputtensor,kernel,stride=1)
print(output)
output2=F.conv2d(inputtensor,kernel,stride=2)
print(output2)

在这里插入图片描述
padding即在输入的周围进行填充一圈再进行卷积操作,空白部分默认视为0

import torch
import torch.nn.functional as F
import numpy as np
inputtensor = torch.tensor([[1, 2, 0, 3, 1],[0, 1, 2, 3, 1],[1, 2, 1, 0, 0],[5, 2, 3, 1, 1],[2, 1, 0, 1, 1]], dtype=torch.float32)
# 使用 NumPy 创建卷积核
np_kernel = np.random.randn(3, 3)# 将 NumPy 数组转换为 PyTorch 张量
kernel = torch.tensor(np_kernel, dtype=torch.float32)inputtensor=torch.reshape(inputtensor,(1,1,5,5))
kernel=torch.reshape(kernel,(1,1,3,3))
print(kernel.shape)
print(inputtensor.shape)output=F.conv2d(inputtensor,kernel,stride=1)
print(output)
output2=F.conv2d(inputtensor,kernel,stride=2)
print(output2)
output3=F.conv2d(inputtensor,kernel,stride=1,padding=1)
print(output3)
http://www.lryc.cn/news/373093.html

相关文章:

  • Spring Boot整合Redis通过Zset数据类型+定时任务实现延迟队列
  • Android入门第69天-AndroidStudio中的Gradle使用国内镜像最强教程
  • 深入浅出 Qt 中 QListView 的设计思想,并掌握大规模、高性能列表的实现方法
  • 课设--学生成绩管理系统
  • MySQL性能分析
  • 为什么要学习Flink系统管理及优化课程?
  • 把本机的bash构建到docker镜像里面
  • 【数据分析】推断统计学及Python实现
  • 探索交互的本质:从指令到界面的演进与Linux基础指令的深入剖析
  • uniapp vue分享功能集成
  • 软件工程实务:软件产品
  • 带侧边栏布局:带导航的网页
  • react学习-redux快速体验
  • 基于flask的网站如何使用https加密通信-问题记录
  • 记C#优化接口速度过程
  • windows环境如何运行python/java后台服务器进程而不显示控制台窗口
  • 记周末百度云防御CC攻击事件
  • vue中v-bind控制class和style
  • 【面试经典150题】【双指针】392. 判断子序列
  • 禁用PS/Photoshop等一系列Adobe旗下软件联网外传用户数据操作
  • C语言猜输赢游戏
  • Rust 异步 trait 的实现困难
  • 腾讯云和windows11安装frp,实现内网穿透
  • Solidity智能合约事件(event)
  • 第2章 Rust初体验7/8:错误处理时不关心具体错误类型的下划线:提高代码可读性:猜骰子冷热游戏
  • 大话C语言:第24篇 预处理
  • React如何配置路由
  • MAC使用初体验+入门
  • Go TOKEN机制与跨域处理方式
  • JavaScript 的运行