智能科学与技术学报 ›› 2021, Vol. 3 ›› Issue (1): 93-100.doi: 10.11959/j.issn.2096-6652.202110

• 学术论文 • 上一篇    下一篇

基于细节增强的MR序列转换方法

严凡1, 邸奕宁2, 张建伟1, 陈为1   

  1. 1 浙江大学计算机辅助设计与图形学国家重点实验室,浙江 杭州 310058
    2 浙江大学伊利诺伊大学厄巴纳香槟校区联合学院,浙江 杭州 314400
  • 修回日期:2021-02-08 出版日期:2021-03-15 发布日期:2021-03-01
  • 作者简介:严凡(1995- ),男,浙江大学计算机辅助设计与图形学国家重点实验室硕士生,主要研究方向为医学影像、深度学习。
    邸奕宁(1998- ),男,浙江大学伊利诺伊大学厄巴纳香槟校区联合学院本科生,主要研究方向为智能交通系统、交通控制与优化、计算机可视分析。
    张建伟(1995- ),男,浙江大学计算机辅助设计与图形学国家重点实验室博士生,主要研究方向为医学影像、深度学习。
    陈为(1976- ),男,博士,浙江大学计算机辅助设计与图形学国家重点实验室教授、博士生导师,中国计算机学会高级会员,主要研究方向为可视化、可视分析、大数据分析、人机混合智能。

Conversion method of magnetic resonance sequence based on detail enhancement

Fan YAN1, Yining DI2, Jianwei ZHANG1, Wei CHEN1   

  1. 1 State Key Lab of CAD&CG , Zhejing University, Hangzhou 310058, China
    2 Zhejiang University/University of Illinois at Urbana-Champaign Institute, Hangzhou 314400, China
  • Revised:2021-02-08 Online:2021-03-15 Published:2021-03-01

摘要:

磁共振(MR)是一种被广泛使用的医学成像方式。针对某些序列的 MR 影像不易直接获得、需要由其他序列的MR影像转换的问题,提出一种基于细节增强的MR序列转换方法。该方法基于条件生成对抗网络构建了残差模板合成模块 ResGAN和细节增强合成模块 EnGAN,设计了一种端到端的网络结构。在一组配准过的神经纤维瘤T1序列影像和STIR序列影像上进行了测试,结果表明,相比于现有方法,提出的方法更好地还原了边界细节和信号强度细节。

关键词: 磁共振序列转换, 生成对抗网络, 医学影像处理

Abstract:

Magnetic resonance (MR) is a widely used medical imaging method.However, MR images of certain modalities are not easy to obtain directly and thus need to be converted from other modality.To solve these problem, a conversion method of MR sequence based on detail enhancement was proposed.The proposed method constructed an end-to-end network with two conditional GAN-based modules: resiguals template generation module (ResGAN) and detail enhancement module (EnGAN).The proposed method are tested on a set of registered neurofibroma T1 and STIR images, which demonstrate that the proposed method can restore boundary details and signal intensity details better than other existing methods.

Key words: cross-modality magnetic resonance, generative adversarial network, medical image processing

中图分类号: 

No Suggested Reading articles found!