当前位置: 首页 > news >正文

论文阅读——What Can Human Sketches Do for Object Detection?(cvpr2023)

论文:https://openaccess.thecvf.com/content/CVPR2023/papers/Chowdhury_What_Can_Human_Sketches_Do_for_Object_Detection_CVPR_2023_paper.pdf

代码:What Can Human Sketches Do for Object Detection? (pinakinathc.me)

一、

Baseline SBIR Framework:给一组图片:轮廓和图片,学习到对应的两个特征,然后使用余弦距离计算triplet loss。

本文使用hard-triplet loss,再加上一个分类损失

二、

        使用RPN或者selective search生成框和对应的特征,输入到分类头检测头得到两个分数。通过这两个来判断图片中是否出现某个类别。分类头分数分别判断每个区域属于某个类别的概率,检测头分数判断这个patch对属于被分到的这个类别的贡献度。

labels:

,  

三、

下面是微调框:

因为没有坐标标注,所以使用了一个迭代微调分类器对每个ROI预测一个精细的类别分数,标签从第k-1步迭代获得:

1、计算每个类别分数最高的patch

2、和这个patch重叠度高的(iou>0.5)patch都是一个类别

3、如果某个区域和任何一个分数高的patch重合度都不高,就是背景。

4、如果某个类别没出现在图片中,也是0

损失函数:

四、

然后检测一般是预先固定多少类别,作者克服了这个限制

每个头原本预测分数,改为计算嵌入向量

用预训练的Fs编码patch得到

计算分数:

多加了一个来自原始图片的监督Fp,

最终损失为:

五、

泛化到开放词汇检测:

轮廓向量集合:

图片向量集合:

映射到ViT第一层,以诱导CLIP学习下游轮廓/照片分布

ViT权重冻结,CLIP学习到知识被蒸馏为prompts的权重。

最后新的轮廓和图片encoder为使用sketch prompt和图片prompt的CLIP’s image encoder,

只训练Vs和Vp

学习跨类别的FGSBIR:

http://www.lryc.cn/news/218925.html

相关文章:

  • 统计学习方法 牛顿法和拟牛顿法
  • React基础知识02
  • Oracle(10)Managing Undo Data
  • Xcode 14.3 新版问题总结
  • 14 _ 排序优化:如何实现一个通用的、高性能的排序函数?
  • 如何记录每天的工作日程?电脑手机通用的日程管理软件
  • 基础Redis-结构与命令
  • [强网杯 2019]随便注1
  • Skywalking介绍
  • K8S知识点(四)
  • Android WMS——WMS窗口更新移除(十四)
  • Java程序设计2023-第三次上机练习
  • opencv复习(简短的一次印象记录)
  • pytorch-损失函数-分类和回归区别
  • 数字IC后端实现 |TSMC 12nm 与TSMC 28nm Metal Stack的区别
  • Spring Security OAuth 2.0 资源服务器— JWT
  • C++初阶(八)类和对象
  • Excel文档名称批量翻译的高效方法
  • python里面的浅拷贝和深拷贝
  • HJ76 尼科彻斯定理
  • AndroidAuto PCTS A118解决杂音问题
  • uniapp小程序砸金蛋抽奖
  • 数据结构(超详细讲解!!)第二十节 数组
  • 【Android】Android Framework系列---CarPower深度睡眠STR
  • 【漏洞复现】Fastjson_1.2.47_rce
  • 玩转AIGC:如何选择最佳的Prompt提示词?
  • ELK搭建以及使用教程(多pipiline)
  • 小程序如何设置用户同意服务协议并上传头像和昵称
  • 6.4 例程:使用互斥量
  • [算法日志]图论: 深度优先搜索(DFS)