当前位置: 首页 > news >正文

车辆重识别(2021ICML改进的去噪扩散概率模型)论文阅读2024/9/29

所谓改进的去噪扩散概率模型主要改进在哪些方面:
①对数似然值的改进
通过对噪声的那个方差和T进行调参,来实现改进。
②学习\sum _{\theta }(x_{t},t)

这个参数也就是后验概率的方差。通过数据分析,发现在T非常大的情况下\sum _{\theta }(x_{t},t)对样本质量几乎没有影响,也就是说随着我们增加更多的扩散步数,μ比\sum _{\theta }(x_{t},t)更有影响力。但是通过分析发现,扩散过程中前几步对loss值贡献最大,那么我们可以对\sum _{\theta }(x_{t},t)调整。通过实验发现,将\sum _{\theta }(x_{t},t)的值确定在噪声方差和后验概率方差之间效果最好。顺便,我们将loss公式改为L_{hybrid}=L_{simple}+\lambda L_{vlb}。将\lambda确定为一个较小的值,保证L_{simple}仍然是主要影响源。

③改善噪声时间表

我们发现之前的噪声时间表对于高分辨率的图像效果比较好,但是对于分辨率为64×64和32×32的图像效果不好。这项操作改变了每一时间步所加的噪声,进而改变了后续数据的分布。我们可以暂且认为控制了每一时间步所加入的噪声量,使得原本图像更慢地变为纯噪声数据,如果像之前的线性时间表,可能会出现图像已经变成纯噪声数据了,但是时间步还没到T,导致不断向图像加噪声,使得难以训练。

④降低梯度噪声

通过分析发现loss值是非常难优化的,因为梯度很嘈杂,也就是说梯度受到输入数据等其他因素影响非常大。这时候我们采取的方法是,把原来的loss值分解为各个时间步的loss值,对每个时间步的loss值进行优化,最后赋予权重,加起来求期望。如下图所示:

⑤提高采样速度

现有的采样技术使得训练非常耗时,我们采用重要性采样,使得不用跟随时间步一步一步采样,只有前一步采样完后一步才能采样。可以随意选取时间步序列,对任一时间步采样。

http://www.lryc.cn/news/451471.html

相关文章:

  • 828华为云征文|针对Flexus X实例云服务器的CPU和内存性能测评
  • Python知识点:如何使用Google Cloud IoT与Python进行边缘计算
  • 力扣 最小覆盖子串
  • python的内存管理机制
  • 阿布量化:基于 Python 的量化交易框架
  • 计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-09-28
  • 【tower-boot 系列】开源RocketMQ和阿里云rockerMq 4.x和5.x集成 (一)
  • Pikachu-Cross-Site Scripting-反射型xss(post)
  • Vue3 工具函数(总结)
  • (undone) MIT6.824 Lab1
  • SpringMVC——REST
  • 【牛客网刷题记录】【java】二叉树
  • 一文讲透大语言模型构建流程
  • VR视频怎样进行加密和一机一码的使用?--加密(一)
  • Ubuntu启动后第一次需要很久才能启动GTK应用问题
  • 栏目二:Echart绘制动态折线图+柱状图
  • Gromacs——使用过程中暴露问题分析及学习
  • Webpack模式-Resolve-本地服务器
  • 【LLM论文日更】| 通过指令调整进行零样本稠密检索的无监督文本表示学习
  • 02.01、移除重复节点
  • 旅游推荐|旅游推荐系统|基于Springboot+VUE的旅游推荐系统设计与实现(源码+数据库+文档)
  • github项目--crawl4ai
  • 仅有N卡独显的情况下安装ubuntu是遇到的黑屏,加载卡顿等问题
  • Vite:为什么选 Vite
  • 个人项目简单https服务配置
  • Rust 函数
  • 微信小程序中的 `<block>` 元素:高效渲染与结构清晰的利器
  • 选读算法导论5.2 指示器随机变量
  • 大数据-154 Apache Druid 架构与原理详解 基础架构、架构演进
  • centos9 nginx 版本