当前位置: 首页 > news >正文

深度学习·基础知识

交叉熵损失CE

只关心正确类别的预测概率

  • 先进行softmax得到logits
  • 真实标签的概率分布:yyy,预测标签的概率分布y^\hat{y}y^,NNN表示类别数,且yi∈{0,1}y_i\in\{0,1\}yi{0,1}
  • 衡量两个概率分布的距离或者差别,类似KL散度
    L(y,y^)=−1N∑i=1Nyilog(y^i) \mathcal{L}(y,\hat{y})=-\frac{1}{N}\sum_{i=1}^Ny_i log(\hat{y}_i) L(y,y^)=N1i=1Nyilog(y^i)

二元交叉熵BCE

只需要记忆BCE就可,CE是其的一种推广
BCE确实强制每个类别的输出趋近0或1

  • 先对每一个类别预测结果应用softmax得到logits
  • 每一个类别的yiy_iyi允许为1,意味着可以存在多个分类结果
  • 真实标签的概率分布:yyy,预测标签的概率分布y^\hat{y}y^,NNN表示样本数,且yi∈{0,1}y_i\in\{0,1\}yi{0,1}
    L(y,y^)=−1N∑i=1Nyilog(y^i)+(1−yi)log(1−y^i) \mathcal{L}(y,\hat{y})=-\frac{1}{N}\sum_{i=1}^Ny_i log(\hat{y}_i)+(1-y_i)log(1-\hat{y}_i) L(y,y^)=N1i=1Nyilog(y^i)+(1yi)log(1y^i)

Focal loss

  • 用于解决数据集不平衡的问题
  • 建立在BCE的基础之上
  • ptp_tpt表明预测的置信度,与类别无关。(例如p=1表示对于类别1的预测概率为1,但是ptp_tpt表明了对正确标签的预测概率)
  • αt\alpha_tαt定义与ptp_tpt类同,主要用平衡正负样本权衡
  • (1−pt)γ(1-p_t)^{\gamma}(1pt)γ用于平衡难易的样本权衡
    在这里插入图片描述

在这里插入图片描述

  • 以下两种公式完全等价。就是展开来写的区别。
    在这里插入图片描述

在这里插入图片描述
这里的yiy_iyi预测结果,y^∈{0,1}\hat{y}\in\{0,1\}y^{0,1}ground truthαt\alpha_tαt一般不加,不考虑正负样本;γ=2\gamma=2γ=2时效果最好。

Dice loss

  • 解决数据集不平衡的问题
    标准公式:
    Ldice=1−2∣X∩Y∣∣X∣+∣Y∣ \mathcal{L}_{dice}=1-\frac{2|X\cap Y|}{|X|+|Y|} Ldice=1X+Y2∣XY

很明显如果完全重合损失为0,所以这个loss适用于直接优化IOU指标

  • 实际计算:
  • 针对每一个类别计算loss损失
  • 遍历每一个类别i(ground_truth==i)*pred*2得到上面的项,然后分别对掩码矩阵和预测矩阵求平方得到下面的项(技巧:转bool值)
    在这里插入图片描述

GZLSS/ZLSS和FLSS/FLSS

Zero-label=zero shot
few label=few shot

训练过程

  • 预先设定某些类别为seen和unseen类
  • 训练过程中对于unseen或者不涉及的类别,不计算损失
  • 数据集的样本的划分细节等都不变
    在这里插入图片描述

测试过程

  • IOU指标取平均得到mIOU
  • seen和unseen的类被分别计算
  • 最终得到harmonic mean (H)

“inductive” zero-shot 和“transductive” zero-shot

Besides “inductive” zero-shot segmentation, there is a “transductive” zero-shot learning setting, which assumes that the names of unseen classes are known before the testing stage. They [17, 56] suppose that the training images include the unseen objects, and only ground truth masks for these regions are not available. Our method can easily be extended to both settings and achieve excellent performance.

“transductive” zero-shot在训练过程中,unseen类已知,图片中也包括unseen类,但是它们的注释信息是不知道的,所以需要CLIP生成伪标签,通过BCE来生成损失

http://www.lryc.cn/news/610583.html

相关文章:

  • LG P2480 [SDOI2010] 古代猪文 Solution
  • 云平台监控-Zabbix企业级高级应用
  • <八> Docker安装oracle11.2.0.4库
  • 亚马逊账号关联全解析:从风险底层逻辑到高阶防控策略
  • 计算机视觉CS231n学习(3)
  • Vulnhuntr:用于识别远程可利用漏洞的开源工具
  • 《C++初阶之STL》【模板参数 + 模板特化 + 分离编译】
  • PCIe Base Specification解析(七)
  • 私有云盘新体验:FileRise在cpolar的加持下如何让数据管理更自由?
  • 24. 前端-js框架-Vue
  • Redis内存耗尽时的应对策略
  • K8S的NetworkPolicy使用教程
  • 升级 Elasticsearch 到新的 AWS Java SDK
  • iouring系统调用及示例
  • 学习游戏制作记录(将各种属性应用于战斗以及实体的死亡)8.5
  • 从循环嵌套到拓扑编排:LangGraph如何重构Agent工作流
  • 面向对象的七大设计原则
  • 【2025WACV-目标检测方向】
  • 目标检测、分割的数据增强策略
  • 智慧社区物业管理平台登录流程全解析:从验证码到JWT认证
  • 分布式网关技术 + BGP EVPN,解锁真正的无缝漫游
  • Java 异步编程工具类 CompletableFuture 详细介绍
  • CodeRush AI 助手进驻 Visual Studio:AiGen/AiFind 亮相(四)
  • 自然语言翻译--seq2seq
  • JavaWeb(苍穹外卖)--学习笔记17(Websocket)
  • 【题解】P3172 [CQOI2015] 选数(倍数莫反做法)
  • Spring-rabbit使用实战六
  • 智慧会所:科技赋能,开启休闲新体验
  • 计算机算术5-整形除法
  • 代码训练营DAY53 第十一章:图论part04