当前位置: 首页 > news >正文

深度学习无监督磁共振重建方法调研(二)

深度学习无监督磁共振重建方法调研(二)

  • Self-supervised learning of physics-guided reconstruction neural networks without fully sampled reference data(Magnetic Resonance in Medicine 2020)
    • 模型设计
    • 实验结果
  • PARCEL: Physics-based Unsupervised Contrastive Representation Learning for Multi-coil MR Imaging(IEEE/ACM TRANSACTIONS ON COMPUTATIONAL BIOLOGY AND BIOINFORMATICS)
    • 问题定义与模型设计
    • 损失函数
      • Undersample Calibration Loss
      • Reconstructed Calibration Loss
      • Contrastive Representaion Loss
    • 实验结果

Self-supervised learning of physics-guided reconstruction neural networks without fully sampled reference data(Magnetic Resonance in Medicine 2020)

本文提出了一种基于自监督方式训练神经网络用于磁共振重建的方式,并通过在公开数据集(fastMRI multi-coil knee)以及前瞻性加速脑成像图(没有GT数据的?)上的数值和人工衡量,证明了方法的有效性。

模型设计

对于完整采样的mask Ω\OmegaΩ,作者将其划分成为了两个mask,Θ\ThetaΘΛ\LambdaΛ,其中Θ\ThetaΘ用于训练(生成输入的降采样数据和应用数据一致层),Λ\LambdaΛ用于定义损失函数,即衡量输出结果在Λ\LambdaΛ采样的部分是否和真实数据一致。注意测试时会将所有采样点全部输入生成结果。
模型设计
作者采用了normalized l2-l1损失进行训练,模型方法和对标的有监督方法都在K空间定义损失:
损失函数
在Mask选择上,作者定义ρ=∣Λ∣/∣Ω∣\rho=|\Lambda|/|\Omega|ρ=∣Λ∣/∣Ω∣,选择了表现最好的值(膝盖数据集是0.4),并且做了三个变体,主要区别是Λ\LambdaΛΘ\ThetaΘ的重叠:

  • 无重叠(原始设定)
  • 重叠50%
  • 重叠100%

最后发现原始设定最好。作者还在不同的ρ\rhoρ下验证了不同的随机降采样方式,发现高斯比均匀降采样好,因此选择高斯降采样。

实验结果

作者在fastMRI的多线圈Knee上做了实验(4倍降采样),对比了有监督方法,无监督方法和传统CS重建方法,看起来提出的方法好于传统方法,和有监督方法相当。
fastMRI_knee实验
其它实验结果就不赘述了。

PARCEL: Physics-based Unsupervised Contrastive Representation Learning for Multi-coil MR Imaging(IEEE/ACM TRANSACTIONS ON COMPUTATIONAL BIOLOGY AND BIOINFORMATICS)

同样是王珊珊团队的工作,可以看作是SelfCoLearn的进阶版,对多线圈成像做了更多的讨论。

问题定义与模型设计

和单线圈磁共振成像不同的是,除了降采样矩阵Ω\mathbf{\Omega}Ω和傅里叶变换FFF外,还包括了线圈敏感度信息SSS,下式中ϵ\epsilonϵ表示噪声,下标iii表示线圈,CCC为线圈数:
PARCEL:多线圈成像

和SelfCoLearn一样,模型也分为了两个子网络,输入的数据经过了re-降采样(AjA_jAj),求解的问题的表示如下所示:
PAECEL:问题定义
其中Aj=ΩiFSA_j=\mathbf{\Omega_i}FSAj=ΩiFSjjj用于表示两个子网络。网络用DwD_wDw表示,采用MoDL结构(因为是在每次迭代中共享权重,所以DwD_wDw也可以用来表示整个网络),输出为x1x_1x1x2x_2x2
PARCEL:模型结构

损失函数

模型设计了精巧的co-training loss,包含三个部分,总公式如下,LLL为样本总数,不过根据代码,三种损失并不是1:1:1,而是1:0.1:0.1。
PARCEL:损失函数

Undersample Calibration Loss

表示为lucl_{uc}luc,主要是确保重建后的结果在所有采样位置(未经过re-降采样)和已知的结果一致:
PARCEL:UC损失函数

Reconstructed Calibration Loss

表示为lrcl_{rc}lrc,其将xxx(这里只是表示损失函数的输入,实际使用中的输入就是两个子网络的输出x1x_1x1或者x2x_2x2),EEE表示FSFSFSEHE^HEH表示SF−1SF^{-1}SF1
PARCEL:RC损失
从式子上看,是希望将输出的重建结果的真实采样部分替换为真实值yyy后得到的图像,和不替换也尽可能相似。不过这样的话似乎和lucl_{uc}luc没什么区别?只不过一个比的是零填充其余部分,一个比的是用重建值填充其余部分的图像的MSE损失,这有影响吗?

Contrastive Representaion Loss

表示为lcll_{cl}lcl,用来尽可能增加两个自网络输出结果的相似性:
PARCEL:CL损失
特别注意的是这里的zzz是输出经过额外一个1024大小的全连接层+ReLU的expander来实现的,z1=h1(x1)z_1=h_1(x_1)z1=h1(x1)z2=h2(x2)z_2=h_2(x_2)z2=h2(x2)sim()sim()sim()采用余弦相似度,作者通过该损失函数最大化两个网络输出的相似。不过从代码上来看h1=h2h_1=h_2h1=h2

实验结果

作者在fastMRI的多线圈膝盖数据集和一个自己的大脑数据集上做了实验,尝试了三种不容的降采样mask。对比了SENSE,Variational-Net,U-Net-256,SSDU(上一篇文章),Supervised-MoDL。反正结果基本是仅次于Supervised MoDL。

作者验证了Contrastive Loss的作用,使用只使用单个网络自监督Single-Net(没说什么方法,应该是UC损失),只使用UC的PARCEL模型Parallel-Net,加入了CL损失的PARCEL模型CL,对比如下:
Contrastive损失的作用
下一节中进行了更详细的比较,如下:
PARCEL:消融实验

http://www.lryc.cn/news/16541.html

相关文章:

  • 蓝桥杯入门即劝退(十九)两两交换链表
  • 【Java 面试合集】接口以及抽象类
  • LeetCode 2391. 收集垃圾的最少总时间
  • 【PMP考试最新解读】第七版《PMBOK》应该如何备考?(含最新资料)
  • 金三银四软件测试面试如何拿捏面试官?【接口测试篇】
  • Hive基操
  • CSS(配合html的网页编程)
  • MATLAB/Simulink 通信原理及仿真学习(三)
  • 如何解决过拟合与欠拟合,及理解k折交叉验证
  • Kotlin 34. recyclerView 案例:显示列表
  • JAVA练习58-汉明距离、颠倒二进制位
  • 优炫数据库百城巡展,成都首站圆满举行
  • 【20230210】二叉树小结
  • openCV—图像入门(python)
  • 关于一个Java程序员马上要笔试了,临时抱佛脚,一晚上恶补45道简单SQL题,希望笔试能通过
  • PyTorch深度学习实战
  • leetcode 1011. Capacity To Ship Packages Within D Days(D天内运送包裹的容量)
  • 支持向量机SVM详细原理,Libsvm工具箱详解,svm参数说明,svm应用实例,神经网络1000案例之15
  • Mac 上搭建 iOS WebDriverAgent 环境
  • python学习笔记之例题篇NO.3
  • 【Kubernetes】第七篇 - Service 服务介绍和使用
  • Linux 终端复用器Tmux
  • Hadoop集群模式安装(Cluster mode)
  • PTA L1-054 福到了(详解)
  • python -- 魔术方法
  • 「JVM 编译优化」提前编译器
  • Golang channel 用法与实现原理
  • jackson 序列化、反序列化的时候第一个大写单词变成小写了(属性设置不成功)
  • 如何判断机器学习数据集是否是线性的
  • 后端基础SQL