中华放射医学与防护杂志  2025, Vol. 45 Issue (6): 558-565   PDF    
基于人工智能的磁共振引导放疗靶区目标自动追踪研究
王伊玲 , 赵越 , 刘秋涵 , 王捷 , 范羽     
四川省肿瘤医院·研究所 放射肿瘤学四川省重点实验室 四川省肿瘤临床医学研究中心 四川省癌症防治中心 电子科技大学附属肿瘤医院放射治疗中心, 成都 610041
[摘要] 目的 探讨Elekta Unity磁共振引导放疗系统靶区自动追踪的可行性, 引入Transformer大模型深度学习技术, 进一步提升磁共振引导放疗实时靶区目标追踪性能。方法 回顾性收集75位已接受Unity磁共振放疗的胸腹部恶性肿瘤患者4 661帧电影磁共振图像(cine MRI)二进制图像作为训练集; 并额外收集10位患者500帧cine MRI二进制图像作为独立测试集。开发医学图像格式转化运算模块, 将二进制图像转化为医学元图像。对测试集cine MRI实施肿瘤靶区外轮廓人工勾画, 作为真实对照标签。固定每一位患者的第一帧cine MRI为参考图像, 基于Transformer技术, 构建运动图像(除第一帧之外的其余cine MRI图像)相对于参考图像的形变位移矢量场(DVF)深度学习模型。计算戴斯相似系数(DSC), 95%豪斯多夫距离(HD95), 雅格比行列式(NegJ), 平均单帧cine MRI图像处理时间, 并与传统B-Spline方案比较, 定量评估靶区目标追踪准确性、DVF物理合理性及模型执行效率。结果 与B-Spline方案相比, 所提出的深度学习方案具有更佳的靶区目标追踪性能, DSC [(0.84±0.05) vs. (0.74±0.16), t=11.44, P < 0.05]和HD95 [(9.25±2.98) vs. (14.70±8.55)mm, t=-11.83, P < 0.05] 均有改善; 且图像平均处理时间由1.95 s缩减到30.99 ms, 效率提升了2个数量级。深度学习方案获得了与B-Spline方案类似的NegJ, 说明提取到的DVF具有与传统方案相似的物理合理性。结论 Transformer深度学习靶区自动追踪方案填补了Elekta Unity磁共振引导放疗系统的功能空白, 可对胸腹部运动肿瘤目标实施较为准确且高效的自动追踪。
[关键词] 磁共振引导放疗    深度学习    电影磁共振图像    靶区追踪    
Automatic target volume tracking in magnetic resonance imaging-guided radiotherapy based on artificial intelligence
Wang Yiling , Zhao Yue , Liu Qiuhan , Wang Jie , Fan Yu     
Department of Radiation Oncology, Radiation Oncology Key Laboratory of Sichuan Province, Sichuan Clinical Research Center for Cancer, Sichuan Cancer Hospital & Institute, Sichuan Cancer Center, University of Electronic Science and Technology of China, Chengdu 610041, China
[Abstract] Objective To explore the feasibility of automatic target volume tracing in the Elekta Unity magnetic resonance imaging (MRI)-guided radiotherapy system and to further enhance the real-time target volume tracing performance of MRI-guided radiotherapy by introducing the deep learning technology based on a large Transformer model. Methods A total of 4 661 frames of cine MRI binary images from 75 patients with malignant tumors in the chest/abdomen who were treated with MRI-guided radiotherapy were retrospectively collected as a training set. Another 500 frames of cine MRI binary images from 10 patients were collected as an independent test set. A module for medical image format conversion was developed to convert binary images into medical meta-images. The outer contours of tumor target volumes in the cine MRI images of the test set were manually delineated as actual control labels. With the first frame of the cine MRI images of each patient as the reference image and the other frames as motion images, a Transformer-based deep learning model was constructed to describe the deformable vector field (DVF) of motion images relative to the reference image. The Dice similarity coefficient (DSC), the 95% Hausdorff distance (HD95), the negative Jacobian determinant (NegJ), and the average processing time per frame of cine MRI images were calculated. These values were compared to those of the conventional B-Spline scheme to quantitatively assess the target volume tracing accuracy, DVF physical plausibility, and execution efficiency of the Transformer-based deep learning model. Results The Transformer-based deep learning model constructed in this study delivered superior target volume tracing performance, with improved DSC [(0.84 ± 0.05) vs. (0.74 ± 0.16), t = 11.44, P < 0.05] and HD95 [(9.25 ± 2.98) vs. (14.70 ± 8.55) mm, t=-11.83, P < 0.05]. Furthermore, this model reduced the average image processing time from 1.95 s to 30.99 ms, enhancing the efficiency by two orders of magnitude. Besides, this model yielded NegJ similar to that of the B-Spline scheme. This suggests that the DVF extracted using this model had comparable physical plausibility with that obtained using the B-Spline scheme. Conclusions The Transformer-based deep learning model for automatic target volume tracing fills the functional gap of the Elekta Unity MRI-guided radiotherapy system, facilitating relatively accurate, efficient automatic tracing of moving tumor targets in the chest and abdomen.
[Key words] Magnetic resonance image-guided radiotherapy    Deep learning    Cine magnetic resonance image    Target volume tracing    

胸腹部恶性肿瘤高发且致死率高,器官运动导致的靶区位移使其精准放疗面临严峻挑战。磁共振引导放疗(MRgRT)凭借影像-放疗一体化优势,可通过电影磁共振图像(cine MRI)实时监控肿瘤运动并实施自适应调整[1-2]。国内广泛应用的Elekta Unity系统[3]因缺乏靶区自动追踪功能,制约了其动态剂量预测能力。形变配准通过获取形变位移矢量场(DVF)[4]为运动追踪提供核心数据,其中基于B样条插值(B-Spline)的方案虽能描述组织弹性形变[5],但其高计算复杂度(单帧处理约2.0 s)难以满足实时追踪需求[6]。近年来,基于卷积神经网络(CNN)的深度学习方案虽提升了形变配准处理速度[7-9],但其局部感受野特性限制了空间长程关联捕获能力,且监督学习依赖人工勾画易引入个体差异[10]。本研究引入Transformer深度学习模型,其技术突破对放射医学与防护具有双重价值:在剂量计算层面,所获得的DVF可直接输入剂量累积模型,为评估呼吸运动引起的剂量偏差提供基础数据;在放射防护层面,高效的追踪效率使得动态影像在线配准成为可能,满足实时调整射野门控及多叶光栅追踪的时间窗需求[2]。与现有监督学习方案相比,本模型还通过无监督学习方案规避人工靶区勾画差异,提升了配准结果的稳定性,有利于剂量敏感器官保护。

资料与方法

1.临床资料:回顾性收集2023年1—12月在四川省肿瘤医院Unity磁共振加速器接受放射治疗的75例胸腹部恶性肿瘤患者共计4 661帧矢状面cine MRI影像资料作为无监督学习模型的训练集,其中,肺癌19例、肝癌18例、直肠癌19例、胰腺癌5例、腹后膜恶性肿瘤3例、宫颈癌3例、胃癌2例、其余部位恶性肿瘤6例。此外,额外收集2024年1—3月在该治疗中心Unity磁共振加速器接受放射治疗的10例胸腹部恶性肿瘤患者共计500帧矢状面cine MRI影像资料作为无监督学习模型的独立测试集,其中,肺癌4例、直肠癌4例、胰腺癌1例、胃癌1例;单个样本的cine MRI帧数为50。本研究为回顾性研究,已申请免除患者知情同意,并获得了四川省肿瘤医院伦理委员会的批准(审批号:SCCHEC-02-2024-076),所涉及的患者数据均进行了匿名化处理。

2.影像资料预处理:利用自主开发的医学图像格式转化运算模块将收集到的cine MRI影像资料由二进制格式转化为MetaImage医学元图像格式。基于二维线性插值,将转化后的cine MRI图像的像素间距统一为1 mm。以插值后的图像中心为参考点,沿横纵方向将cine MRI图像裁剪至512 mm × 512 mm。利用式(1)对裁剪后的cine MRI图像实施像素值归一化计算:

$ \operatorname{Norm}(x)=x-\operatorname{std}(x) / \operatorname{mean}(x) $ (1)

式中,x为待归一化的图像像素集合;norm(x )、std(x)、mean(x )分别为针对x 的归一化、标准差和均值操作计算。

3.测试集靶区目标外轮廓勾画:对于测试集cine MRI图像,以人工勾画肿瘤靶区外轮廓作为靶区目标追踪的真实参考标签。所有病例样本的靶区勾画均由两位经验丰富的专科医生按照国际辐射单位与测量委员会(International Commission on Radiation Units and Measurements, ICRU)62号报告[11]及国家癌症中心/国家肿瘤质控中心发布的靶区勾画和计划设计指南实施,如直肠癌参照《直肠癌靶区勾画和计划设计指南》[12],其中大体靶体积(GTV)包含肠镜和直肠MRI诊断明确的直肠肿瘤和直肠壁外血管受侵部分;肺癌参照《局部晚期非小细胞肺癌放疗靶区勾画和计划设计指南》[13],其中GTV包含原发肿瘤或者切除后残留的肿瘤等。

4.无监督深度学习模型构建:固定每一位患者的第一帧cine MRI为参考图像,其余帧cine MRI为运动图像,以参考图像和各运动图像为输入,基于Transformer结构的移位感知窗口(swin transformer block,STB)[14],在PyTorch 2.0计算框架下,构建运动cine MRI相对于参考cine MRI的DVF自动提取模型[15]。该网络模型由4层编码器和解码器构成:每层编码器为多级STB运算块,以有效捕获空间长距离关联特征;每层解码器为多级卷积运算块,以加强感知空间局部特征;最后一层解码器的输出为待求解的运动图像相对于参考图像的DVF;各层编码器和解码器通过跳跃连接实现空间定位信息流交互[15]。采用无监督学习方式,以Ltotal为损失函数训练网络参数:

$ L_{\text {total }}=L_{\mathrm{img}}+\sigma L_{\mathrm{DVF}} $ (2)

式中,Limg为图像损失函数,由均方误差和局部归一化互相关系数构成[16]LDVF为DVF损失函数,由DVF的一阶空间导数和二阶空间导数构成[15]σ为待优化调整的超参数,代表了(Limg, LDVF)约束条件对于模型性能的影响。采用多种数据扩增、网络训练参数等调整策略,调试优化网络参数,以获得最佳DVF提取模型。该模型在NVIDIA Quadro RTX A6000 GPU上使用Adam优化器训练,批处理大小batch size为64,外循环迭代次数为300个epoch,学习率为1e-4σ为0.05时获得了最佳的模型性能。

5.模型评估:为了在测试集上评估无监督深度学习模型对于运动靶区目标的追踪性能,将最后一层解码器输出的DVF作用于参考cine MRI图像的靶区外轮廓,并与运动cine MRI图像的靶区外轮廓比较,定量计算戴斯相似系数(Dice similarity coefficient, DSC)[17]、95%豪斯多夫距离(Hausdorff distance,HD95)[18],以评估追踪到的靶区目标外轮廓的形状和位置准确度。计算雅格比行列式(negative Jacobian determinant, NegJ)[19],以评估模型提取的运动cine MRI图像相对于参考cine MRI图像的DVF不可逆变换占比,即空间形变的物理合理性。

此外,为了进一步比较所提出的cine MRI靶区自动追踪模型与传统B-Spline模型的结果差异。基于python开源工具箱SimpleITK的B-Spline形变配准计算模块,在相同测试集上评估了DSC、HD95、NegJ指标结果,并对比了在相同运算平台上(NVIDIA Quadro RTX A6000),两种靶区目标自动追踪方案对于单帧cine MRI的处理时间。

6.统计学处理:采用Matlab R2017a软件对所有数据进行分析,所有数据均接受正态检验和方差齐性检验,数据结果以x±s表示。如果服从正态分布且方差齐性,采用配对样本t检验,否则使用Wilcoxon秩和检验(NegJ)比较深度学习模型与B-Spline模型的DSC、HD95、NegJ、单帧cine MRI处理时间。P < 0.05为差异有统计学意义。

结果

1.目标追踪形状相似度评估:各测试患者的DSC结果符合正态分布及方差齐性检验,样本量为50,采用配对样本t检验统计深度学习模型与B-Spline模型的DSC结果差异。表 1列举了各测试患者的DSC指标,除患者03之外,其余样本的DSC差异均有统计学意义(t=2.71 ~ 12.69,P < 0.05)。此外,将所有测试患者的DSC结果级联后(样本量为500)发现:深度学习模型靶区目标自动追踪结果优于B-Spline模型结果(0.84±0.05 vs. 0.74±0.16,t=11.44,P < 0.05)。为了直观展示深度学习模型在靶区目标追踪中的性能,本研究从测试集中选取了具有代表性的两个患者(编号1和4)。这两个患者分别代表了模型预测结果中较高的(DSC=0.89±0.02)和较低的(DSC=0.79±0.08)DSC值,以充分反映模型在不同场景下对于不同靶区目标的追踪效果。图 1展示了深度学习模型输出的靶区外轮廓与人工勾画的真实标签靶区外轮廓(ground truth, GT)的对比结果:深度学习模型能够较好地从运动cine MRI图像中追踪到肿瘤靶区位置,显示出较高的准确性。

表 1 测试集靶区目标追踪形状相似度、位置准确度、空间形变物理合理度结果(x±s) Table 1 Tracing results of the shape similarity, position accuracy, and spatial deformation′s physical plausibility of target volumes in the test set (x±s)

注:白色线条为人工勾画的靶区外轮廓Ground truth真实标签(GT),蓝色线条为本深度学习方案输出的靶区外轮廓(Output) 图 1 人工勾画的靶区目标外轮廓与深度学习模型输出的靶区目标追踪结果对比  A. 样本1;B. 样本4 Figure 1 Comparison between target volumes′ outer contours obtained through manual delineation and tracing using the deep learning model   A. Sample No. 1; B. Sample No. 4

2.目标追踪位置准确度评估:豪斯多夫距离定量描述了Output点集与GT点集的距离。各测试患者的HD95结果符合正态分布及方差齐性检验,样本量为50,采用配对样本t检验统计深度学习模型与B-Spline模型的HD95结果差异。表 1显示了所提出的靶区自动追踪模型对于该距离误差的度量结果,其最大HD95误差均在1.2 cm以内;并且与B-Spline模型相比,大部分患者的深度学习模型HD95差异有统计学意义(t=-3.01 ~ -8.65,P < 0.05)。将所有测试患者的HD95结果级联后(样本量为500)发现:深度学习模型输出的平均HD95低于B-Spline方案结果[(9.25±2.98) vs. (14.70± 8.55)mm,t=-11.83,P < 0.05]。

3.目标追踪空间形变物理合理性评估:NegJ定量评估了模型提取到的形变位移矢量场的物理合理性,其值越接近于0,说明提取到的DVF更符合实际空间几何形变规律。各测试患者的NegJ结果不符合正态分布,样本量为50,采用Wilcoxon秩和检验统计深度学习模型与B-Spline模型的NegJ结果差异。对于级联后的测试集(样本量为500),所提出的深度学习模型的平均NegJ结果与B-Spline模型结果差异无统计学意义[(1.74±0.34)% vs. (1.80±3.28)%,z=0.55,P=0.58]。

4.目标追踪执行效率评估:各测试患者的单帧cine MRI处理时间符合正态分布及方差齐性检验,采用配对样本t检验,统计深度学习模型与B-Spline模型的cine MRI单帧处理时间结果差异。与B-Spline模型相比,所提出的深度学习模型具有更高效的单帧cine MRI靶区目标追踪效率。在同一运算平台上,对于级联后的测试集(样本量为500),B-Spline模型的单帧cine MRI平均处理时间为(1.95±0.21)s,而深度学习模型仅需要(30.99±2.02)ms,计算效率提升了2个数量级,且差异有统计学意义(t=76.54,P < 0.05)。

讨论

放射治疗作为治疗恶性肿瘤的重要手段之一,其效果直接影响患者的生存率和生活质量。放疗的目标是在保证足够的靶区受照剂量的同时,最大限度减少正常组织的受照剂量[20]。现代放射治疗中,剂量计算模型通过量化肿瘤控制概率和正常组织并发症概率,为剂量-效应关系提供了理论依据[21]。优化人体内部受照剂量不仅需要几何学上的精准定位,还需结合功能性影像实现生物靶区剂量雕刻(dose painting)[22],从而在保证放射治疗效果的基础上实现个体剂量防护最优化。在放射防护方面,国际放射防护委员会提出的ALARA原则(as low as reasonably achievable)要求通过时间、距离、屏蔽的三维防护策略降低职业照射和公众剂量[23]。对于患者,除靶区外,关键器官的剂量限值需遵循QUANTEC(quantitative analysis of normal tissue effects in the clinic)指南,例如脊髓最大剂量≤45 Gy,肺V20(接受20 Gy照射的肺体积百分比)≤30%[24]。随着放疗技术的不断进步,考虑了肿瘤及其他感兴趣区域在治疗期间的形态位置变化,并重新设计或调整治疗计划的自适应放疗(adaptive radiotherapy, ART)受到了极大关注,并被成功应用于MRgRT中[25]。由于运动引起的目标区域解剖改变可被视为各实时影像(运动空间)相对于初始影像(参考空间)的形变位移,以DVF提取为目标的形变图像配准(deformation image registration, DIR)方案,因能够定量刻画目标区域内的复杂空间变化,被用于运动目标的动态追踪,是ART有效实施的关键[26]

传统医学图像DIR方案包括:光流场模型配准[27]、黏性流体配准[28]、有限元配准[29]和基于多项式插值的B-Spline配准[30]等。由于B-Spline方案具有良好的局部逼近性和连续性,能有效描述组织和器官的局部弹性形变,在医学图像DIR中受到了广泛关注。Rueckert等[30]首先将B-Spline方案应用于乳腺区域MRI非刚性配准问题。Yin等[31]针对肺部计算机断层扫描(computed tomography, CT)图像,也提出了一种基于标记点灰度信息的3D B-Spline方法,以解决DIR图像交叉和重叠问题。此外,基于B-Spline模型和互信息相似性度量,冯兆美等[32]还尝试了超声和CT图像的非刚性配准。为了提升DIR的配准精度和效率,Lim和Kim[33]将待配准图像的角点信息用于初始化B-Spline网格,进一步改善了方案性能。本研究中,B-Spline方案获得了(0.74±0.16)和(14.70± 8.55)mm的DSC和HD95结果,表明了该方案具有一定的靶区目标追踪准确性。然而,随着医学图像成像技术的飞速发展,待处理的医学图像数据规模也急速增加,为了实现较为精确的B-Spline形变配准,需要设置大量网格控制点,并完成多次迭代优化,导致计算量大、计算复杂度高,可能不利于临床医学图像配准的高效实施[5-6]。本研究中,B-Spline方案的单帧cine MRI平均处理时间约为2.0 s。考虑到实际Elekta Unity磁共振加速器0.2 s/帧的cine MRI成像速率,形变配准的执行速率尚有进一步提升空间。

基于深度学习构建的DIR方案也被应用于靶区目标追踪[7-9]。与传统配准方法相比,深度学习方案可以更快速地获取运动图像相对于参考图像的DVF,定量刻画目标区域内的复杂空间变化,在时序图像目标追踪研究中具有较大优势[7]。目前,大多数深度学习DIR方案都是基于CNN开发的。利用人工标注的训练数据,Terpstra等[8]在Elekta Unity磁共振加速器上基于级联CNN构建了形变配准模型,从腹部肿瘤患者cine MRI中提取DVF,获得了优于传统光流场模型的靶区目标结果,平均图像处理时间为60 ms/帧。Friedrich等[9]利用Unet卷积神经网络,以欠采样cine MRI图像为输入,对肿瘤靶区目标实施跟踪,并与传统B-spline方案比较,获得了更优的目标追踪性能(平均DSC为0.83),平均图像处理时间约为53 ms/帧。值得注意的是,现有深度学习方案大多需要提供经人工标注的真实标签完成监督训练。考虑到在线MRgRT图像监测中的海量数据,人工靶区勾画费时费力且极易引入个体勾画差异,因此有一定的局限性。此外,尽管CNN能够有效捕获图像局部特征,但是由于卷积操作固有的局部感受野偏置特性,无法捕获空间长距离关联信息,可能导致DVF提取不准确[10]

为此,本研究将基于Transformer技术的移位感知窗口[14]引入Unity磁共振加速器治疗系统靶区目标实时追踪,以克服CNN方案的局部偏置特性,在准确捕获空间长距离DVF关联特性的基础上实现精准高效的靶区目标自动追踪。此外,为了避免引入人工勾画误差并进一步提升建模效率,还基于图像和DVF损失函数,以无监督学习方案训练模型。所提出的深度学习方案在测试集中获得了较准确的靶区目标追踪结果。虽然测试样本存在运动幅度较大、运动范围已超过cine MRI监控平面等不利于靶区目标追踪的情况,但是本研究模型输出的靶区目标位置偏差约在1 cm以内,平均DSC为0.84±0.05,HD95为(8.72±3.14)mm,均优于B-Spline方案。在此基础上,本研究所提出的深度学习方案可以极大提升运动和参考cine MRI图像配准的执行效率。对于相同硬件计算平台,其平均处理时间约为31 ms/帧,较B-Spline方案加速提升了2个数量级,与已发表的深度学习方案结果保持了数量级一致性[8-9]

此外,本研究还弥补了现有深度学习方案对于形变过程物理合理性评估的缺失问题,通过定量计算NegJ参数,评估运动和参考图像DVF的物理合理性。测试结果显示,所提出的深度学习方案较传统B-Spline方案具有相同程度的不可逆形变占比,二者的平均NegJ都约为2%。本研究提出的深度学习方案具有更小幅度的NegJ方差结果,说明Transformer技术可以较好地捕获cine MRI图像全局形变特征,因此能够获得波动范围更小、更稳定的DVF结果;而B-Spline方案更关注局部形变特征的捕获,在全局DVF信息的感知上有所欠缺,导致NegJ的波动范围更大。

本研究还存在一定的局限性:数据来源过于单一,缺少不同层级医疗机构数据,课题后续已启动多中心研究,拟针对所提出的深度学习模型方案实施外部测试验证。此外,所提出深度学习模型平均NegJ约为2%,从物理合理性角度看,运动目标的空间形变特征提取尚有进一步优化空间。

本研究的实时追踪技术对放射剂量优化与防护具有潜在推动作用:当靶区追踪精度从B-Spline方案的HD95 14.7 mm提升至9.3 mm时,根据形变配准与剂量计算的基础理论[34],计划靶区(PTV)边界可缩减3~5 mm,理论上可使正常组织受照体积减少15%~20%。尽管本研究未直接实施剂量计算,但所获得的DVF能够反映器官弹性形变,为后续开展剂量累积研究提供关键输入信息。此外,30 ms级的处理速度使DVF更新频率达到33 Hz,远超典型呼吸运动的0.3 Hz主频,这意味着本方案可捕获临床相关运动相位,为动态剂量分析提供完整数据链。值得注意的是,虽然测试样本存在运动幅度较大、运动范围已超过cine MRI监控平面等不利于靶区目标追踪的情况,但是本研究模型输出的靶区目标位置偏差约在1 cm以内,这种强鲁棒性有助于降低大范围运动导致的剂量“冷点”风险,对胃癌等上腹部肿瘤的剂量保障尤为重要。

综上所述,精准定位与剂量计算是放射治疗成功的关键,而本研究不仅在技术实现层面取得了突破性进展,在放射医学与放射防护领域也具有重要价值。从放射剂量的角度来看,本研究的实时靶区追踪技术可显著降低正常组织受照概率,符合放射防护的基本原则。进一步该方案还可以辅助评估治疗过程中的剂量分布情况,有望减少治疗不确定性。在放射医学方面,本研究的实时靶区目标自动追踪方案是人工智能技术与MRgRT相结合的重要成果。其优势体现在:一是通过降低人工判断误差,提高了cine MRI图像处理的准确性;二是缩短了自适应放疗(ART)调节时间,提升了治疗效率;三是为胸腹部运动肿瘤的精准放疗提供了规范化、标准化的技术支持。此外,本研究在放射防护方面的贡献亦值得强调:该方法通过实时追踪技术减少不必要的辐射暴露,有望提升治疗过程中的安全性。未来将进一步开展多中心临床试验,评估该方法在不同病例类型中的适用性与稳定性,以期为放射医学、放射防护领域提供更加完善的解决方案。

利益冲突  所有作者声明不存在利益冲突

作者贡献声明  王伊玲负责数据分析、论文撰写和修改;赵越、刘秋涵负责靶区勾画、实验设计;王捷负责放疗技术支持;范羽负责靶区勾画和论文修改

参考文献
[1]
Otazo R, Lambin P, Pignol JP, et al. MRI-guided radiation therapy: an emerging paradigm in adaptive radiation oncology[J]. Radiology, 2021, 298(2): 248-260. DOI:10.1148/radiol.2020202747
[2]
Lombardo E, Dhont J, Page D, et al. Real-time motion management in MRI-guided radiotherapy: Current status and AI-enabled prospects[J]. Radiother Oncol, 2024, 190: 109970. DOI:10.1016/j.radonc.2023.109970
[3]
Snyder JE, St-Aubin J, Yaddanapudi S, et al. Commissioning of a 1.5T Elekta Unity MR-linac: A single institution experience[J]. J Appl Clin Med Phys, 2020, 21(7): 160-172. DOI:10.1002/acm2.12902
[4]
Oh S, Kim S. Deformable image registration in radiation therapy[J]. Radiat Oncol J, 2017, 35(2): 101-111. DOI:10.3857/roj.2017.00325
[5]
Kadoya N, Fujita Y, Katsuta Y, et al. Evaluation of various deformable image registration algorithms for thoracic images[J]. J Radiat Res, 2014, 55(1): 175-182. DOI:10.1093/jrr/rrt093
[6]
Zachariadis O, Teatini A, Satpute N, et al. Accelerating B-spline interpolation on GPUs: Application to medical image registration[J]. Comput Methods Programs Biomed, 2020, 193: 105431. DOI:10.1016/j.cmpb.2020.105431
[7]
Eppenhof K, Maspero M, Savenije M, et al. Fast contour propagation for MR-guided prostate radiotherapy using convolutional neural networks[J]. Med Phys, 2020, 47(3): 1238-1248. DOI:10.1002/mp.13994
[8]
Terpstra ML, Maspero M, Bruijnen T, et al. Real-time 3D motion estimation from undersampled MRI using multi-resolution neural networks[J]. Med Phys, 2021, 48(11): 6597-6613. DOI:10.1002/mp.15217
[9]
Friedrich F, Hörner-Rieber J, Renkamp CK, et al. Stability of conventional and machine learning-based tumor auto-segmentation techniques using undersampled dynamic radial bSSFP acquisitions on a 0.35 T hybrid MR-linac system[J]. Med Phys, 2021, 48(2): 587-596. DOI:10.1002/mp.14659
[10]
Cordonnier JB, Loukas A, Jaggi M. On the relationship between self-attention and convolutional layers[J]. arXiv preprint arXiv: 1911.03584, 2019. DOI: /10.48550/arXiv.1911.03584.
[11]
Morgan-Fletcher SL. Prescribing, recording and reporting photon beam therapy (Supplement to ICRU Report 50), ICRU Report 62[J]. Br J Radiol, 2014, 74(879): 294-294. DOI:10.1259/bjr.74.879.740294
[12]
国家癌症中心/国家肿瘤质控中心. 直肠癌靶区勾画和计划设计指南[J]. 中华放射肿瘤学杂志, 2022, 31(12): 1081-1100.
National Cancer Center/National Cancer Quality Control Center. Guideline of target delineation and treatment planning for rectal cancer[J]. Chin J Radiat Oncol, 2022, 31(12): 1081-1100. DOI:10.3760/cma.j.cn113030-20220930-00327
[13]
国家癌症中心/国家肿瘤质控中心. 局部晚期非小细胞肺癌放疗靶区勾画和计划设计指南[J]. 中华放射肿瘤学杂志, 2024, 33(10): 877-892.
National Cancer Center/National Cancer Quality Control Center. Guideline of target delineation and treatment planning for locally advanced non-small cell lung cancer[J]. Chin J Radiat Oncol, 2024, 33(10): 877-892. DOI:10.3760/cma.j.cn113030-20230602-00156
[14]
Liu Z, Lin Y, Cao Y, et al. Swin transformer: hierarchical vision transformer using shifted windows[C]. Proc IEEE/CVF Int Conf Comput Vis, 2021: 10012-10022. DOI: 10.1109/ICCV48922.2021.00986.
[15]
Chen J, Frey EC, He Y, et al. TransMorph: Transformer for unsupervised medical image registration[J]. Med Image Anal, 2022, 82: 102615. DOI:10.1016/j.media.2022.102615
[16]
Guo C, Mita S, McAllester D. Chapter 8-robust road environment perception for navigation in challenging scenarios[M]. Boston: Academic Press, 2014: 225-258. DOI:10.1016/B978-0-12-397199-9.00008-2
[17]
Dice LR. Measures of the amount of ecologic association between species[J]. Ecology, 1945, 26(3): 297-302. DOI:10.2307/1932409
[18]
Balagopal A, Morgan H, Dohopolski M, et al. PSA-Net: Deep learning-based physician style-aware segmentation network for postoperative prostate cancer clinical target volumes[J]. Artif Intell Med, 2021, 121: 102195. DOI:10.1016/j.artmed.2021.102195
[19]
黎恩廷, 郑万佳, 连锦兴, 等. 逆向形变场的雅可比行列式在形变配准算法评估中的应用[J]. 中华放射医学与防护杂志, 2024, 44(2): 133-139.
Li ET, Zheng WJ, Lian JX, et al. Application of Jacobian determinant of reverse deformation field to evaluation of deformation registration algorithm[J]. Chin J Radiol Med Prot, 2024, 44(2): 133-139. DOI:10.3760/cma.j.cn112271-20230528-00164
[20]
Barton MB, Frommer M, Shafiq J. Role of radiotherapy in cancer control in low-income and middle-income countries[J]. Lancet Oncol, 2006, 7(7): 584-595. DOI:10.1016/S1470-2045(06)70759-8
[21]
Bortfeld T. IMRT: a review and preview[J]. Phys Med Biol, 2006, 51(13): R363-379. DOI:10.1088/0031-9155/51/13/R21
[22]
Marks LB, Ten Haken RK, Martel MK, et al. Use of normal tissue complication probability models in the clinic[J]. Int J Radiat Oncol Biol Phys, 2010, 76(3 Suppl): S10-S19. DOI:10.1016/j.ijrobp.2009.08.075
[23]
International Commission on Radiological Protection. ICRP Publication 103. The 2007 Recommendations of the International Commission on Radiological Protection[R]. Oxford: Pergamon Press, 2007. DOI: 10.1016/j.icrp.2007.10.003.
[24]
Bentzen SM. Theragnostic imaging for radiation oncology: dose-painting by numbers[J]. Lancet Oncol, 2005, 6(2): 112-117. DOI:10.1016/S1470-2045(05)70030-8
[25]
Yan D, Vicini F, Wong J, et al. Adaptive radiation therapy[J]. Phys Med Biol, 1997, 42(1): 123-132. DOI:10.1088/0031-9155/42/1/008
[26]
李欣. 自适应放疗中变形图像配准算法相关关键技术的研究[D]. 广州: 南方医科大学, 2017. DOI: 10.7666/d.Y3280609.
Li X. Research on key techniques relevant to deformable image registration algorithm in adaptive radiotherapy[D]. Guangzhou: Southern Medical University, 2017. DOI: 10.7666/d.Y3280609.
[27]
Liu X, Yuan Z, Zhu J, et al. Medical image registration by combining global and local information: a chain-type diffeomorphic demons algorithm[J]. Phys Med Biol, 2013, 58(23): 8359-8378. DOI:10.1088/0031-9155/58/23/8359
[28]
Chang HH, Tsai CY. Adaptive registration of magnetic resonance images based on a viscous fluid model[J]. Comput Methods Programs Biomed, 2014, 117(2): 80-91. DOI:10.1016/j.cmpb.2014.08.004
[29]
Zhang J, Wang J, Wang X, et al. The adaptive FEM elastic model for medical image registration[J]. Phys Med Biol, 2014, 59(1): 97-118. DOI:10.1088/0031-9155/59/1/97
[30]
Rueckert D, Sonoda LI, Hayes C, et al. Nonrigid registration using free-form deformations: application to breast MR images[J]. IEEE Trans Med Imaging, 1999, 18(8): 712-721. DOI:10.1109/42.796284
[31]
Yin Y, Hoffman EA, Ding K, et al. A cubic B-spline-based hybrid registration of lung CT images for a dynamic airway geometric model with large deformation[J]. Phys Med Biol, 2011, 56(1): 203-218. DOI:10.1088/0031-9155/56/1/013
[32]
冯兆美, 党军, 崔崤峣, 等. 基于B样条自由形变三维医学图像非刚性配准研究[J]. 影像科学与光化学, 2014, 32(2): 200-208.
Feng ZM, Dang J, Cui XY, et al. B-spline free-form deformation based 3-D non-rigid registration of medical images[J]. Imaging Sci Photochem, 2014, 32(2): 200-208. DOI:10.7517/j.issn.1674-0475.2014.02.200
[33]
Lim JH, Kim YH. Non-rigid registration based on B-spline using point matching[C]. Proc 2015 Int SoC Design Conf (ISOCC), 2015: 215-216. DOI: 10.1109/ISOCC.2015.7401663.
[34]
Westley RL, Alexander SE, Goodwin E, et al. Magnetic resonance image-guided adaptive radiotherapy enables safe CTV-to-PTV margin reduction in prostate cancer: A cine MRI motion study[J]. Front Oncol, 2024, 14: 1379596. DOI:10.3389/fonc.2024.1379596