当前位置: 首页 > news >正文

深度学习术语解释:backbone、head、neck,etc

backbone:翻译为主干网络的意思,既然说是主干网络,就代表其是网络的一部分,那么是哪部分呢?这个主干网络大多时候指的是提取特征的网络,其作用就是提取图片中的信息,共后面的网络使用。这些网络经常使用的是resnet、VGG等,而不是我们自己设计的网络,因为这些网络已经证明了在分类等问题上的特征提取能力是很强的。在用这些网络作为backbone的时候,都是直接加载官方已经训练好的模型参数,后面接着我们自己的网络。让网络的这两个部分同时进行训练,因为加载的backbone模型已经具有提取特征的能力了,在我们的训练过程中,会对他进行微调,使得其更适合于我们自己的任务。

head:head是获取网络输出内容的网络,利用之前提取的特征,head利用这些特征,做出预测。

neck:是放在backbone和head之间的,是为了更好的利用backbone提取的特征。

bottleneck:瓶颈的意思,通常指的是网网络输入的数据维度和输出的维度不同,输出的维度比输入的小了许多,就像脖子一样,变细了。经常设置的参数 bottle_num=256,指的是网络输出的数据的维度是256 ,可是输入进来的可能是1024维度的。

GAP:在设计的网络中经常能够看到gap这个层,我之前不知道是干啥的,后了解了,就是Global Average Pool全局平均池化,就是将某个通道的特征取平均值,经常使用AdaptativeAvgpoold(1),在pytorch中,这个代表自适应性全局平均池化,说人话就是将某个通道的特征取平均值。

self.gap = nn.AdaptiveAvgPool2d(1)

Embedding: 深度学习方法都是利用使用线性和非线性转换对复杂的数据进行自动特征抽取,并将特征表示为“向量”(vector),这一过程一般也称为“嵌入”(embedding)

ground truth:翻译的意思是地面实况,放到机器学习里面,再抽象点可以把它理解为真值、真实的有效值或者是标准的答案。训练集对监督学习技术的分类的准确性。这在统计模型中被用来证明或否定研究假设。“ground truth”这个术语指的是为这个测试收集适当的目标(可证明的)数据的过程。

pretext task和downstream task:用于预训练的任务被称为前置/代理任务(pretext task),用于微调的任务被称为下游任务(downstream task)

temperature parameters 在论文中经常能看到这个温度参数的身影,那么他都有什么用处呢?比如经常看到下面这样的式子:
在这里插入图片描述
里面的beta就是temperature parameter,他在运算的时候起到什么作用呢?是这样的,他可以起到平滑softmax输出结果的作用,举例子如下:

import torch
x = torch.tensor([1.0,2.0,3.0])
y = torch.softmax(x,0)
print(y)x1 = x / 2  # beta 为2
y = torch.softmax(x1,0)
print(y)x2 = x/0.5  # beta 为0.5
y = torch.softmax(x2,0)
print(y) 

输出结果如下:

tensor([0.0900, 0.2447, 0.6652])
tensor([0.1863, 0.3072, 0.5065])
tensor([0.0159, 0.1173, 0.8668]) 

当beta>1的时候,可以将输出结果变得平滑,当beta<1的时候,可以让输出结果变得差异更大一下,更尖锐一些。如果beta比较大,则分类的crossentropy损失会很大,可以在不同的迭代次数里,使用不同的beta数值,有点类似于学习率的效果。

热身Warm up

Warm up指的是用一个小的学习率先训练几个epoch,这是因为网络的参数是随机初始化的,一开始就采用较大的学习率容易数值不稳定。

end to end

在论文中经常能遇到end to end这样的描述,那么到底什么是端到端呢?其实就是给了一个输入,我们就给出一个输出,不管其中的过程多么复杂,但只要给了一个输入,机会对应一个输出。比如分类问题,你输入了一张图片,肯呢个网络有特征提取,全链接分类,概率计算什么的,但是跳出算法问题,单从结果来看,就是给了一张输入,输出了一个预测结果。End-To-End的方案,即输入一张图,输出最终想要的结果,算法细节和学习过程全部丢给了神经网络。

domain adaptation 和domain generalization 域适应和域泛化

域适应中,常见的设置是源域D_S完全已知,目标域D_T有或无标签。域适应方法试着将源域知识迁移到目标域。第二种场景可以视为domain generalization域泛化。这种更常见因为将模型应用到完全未知的领域,正因为没有见过,所以没有任何模型更新和微调。这种泛化问题就是一种开集问题,由于所需预测类别较多,所以比较头疼 。

http://www.lryc.cn/news/11094.html

相关文章:

  • 基础篇—CSS margin(外边距)解析
  • ChatGPT或将引发新一轮失业潮?是真的吗?
  • 【Selenium学习】Selenium 中特殊元素操作
  • Spark相关的依赖冲突,后期持续更新总结
  • 【每日一题Day122】LC1237找出给定方程的正整数解 | 双指针 二分查找
  • 笔记本加装固态和内存条教程(超详细)
  • 【Python】字典 - Dictionary
  • LeetCode分类刷题----二叉树
  • Zipkin : Golang 微服务全链路监控(三)
  • 5.3 BGP路由黑洞
  • STM32 DFU模式烧录代码
  • 松下PLC通过fpwin上传写入MRTC模块方法
  • 就业大山之下的网络安全:安逸的安服仔
  • JavaWeb3-线程的3种创建方式7种写法
  • 驱动调试手段
  • [RK3568 Android12] 音频及路由
  • C++——C++11 第一篇
  • Spring Data JPA 中 CrudRepository 和 JpaRepository 的区别
  • 推荐几款好用的数据库管理工具
  • DPDK — 性能优化手段
  • Fedora Linux未来五年规划
  • 【C++之容器篇】map和set常见函数接口的使用与剖析
  • 虚拟DOM是什么
  • 进程通信方式
  • 强化学习基础知识
  • LeetCode230218_148、654. 最大二叉树
  • WordPress 是什么?.com 和 .org 的 WordPress 有什么差异?
  • java8新特性【2023】
  • 刷题记录:牛客NC51101Lost Cows
  • 华为OD机试 - 不等式 | 备考思路,刷题要点,答疑 【新解法】