壹生大学

壹生身份认证协议书

本项目是由壹生提供的专业性学术分享,仅面向医疗卫生专业人士。我们将收集您是否是医疗卫生专业人士的信息,仅用于资格认证,不会用于其他用途。壹生作为平台及平台数据的运营者和负责方,负责平台和本专区及用户相关信息搜集和使用的合规和保护。
本协议书仅为了向您说明个人相关信息处理目的,向您单独征求的同意,您已签署的壹生平台《壹生用户服务协议》和《壹生隐私政策》,详见链接:
壹生用户服务协议:
https://apps.medtrib.cn/html/serviceAgreement.html
壹生隐私政策:
https://apps.medtrib.cn/html/p.html
如果您是医疗卫生专业人士,且点击了“同意”,表明您作为壹生的注册用户已授权壹生平台收集您是否是医疗卫生专业人士的信息,可以使用本项服务。
如果您不是医疗卫生专业人士或不同意本说明,请勿点击“同意”,因为本项服务仅面向医疗卫生人士,以及专业性、合规性要求等因素,您将无法使用本项服务。

同意

拒绝

同意

拒绝

知情同意书

同意

不同意并跳过

工作人员正在审核中,
请您耐心等待
审核未通过
重新提交
完善信息
{{ item.question }}
确定
收集问题
{{ item.question }}
确定
您已通过HCP身份认证和信息审核
(
5
s)

基于MRI的深度学习分类器的开发和验证,用于区分肛周瘘管性克罗恩病和隐腺瘘 | 消化研究展播

2025-03-21作者:论坛报小塔资讯
原创




成果名称:基于MRI的深度学习分类器的开发和验证,用于区分肛周瘘管性克罗恩病和隐腺瘘:一项多中心队列研究

Development and validation of the MRI-based deep learning classifier for distinguishing perianal fistulizing Crohn’s disease from cryptoglandular fistula: a multicenter cohort study

发表期刊:《电子临床医学》(eClinicalMedicine)(Q1区,IF2023:15.1)

通讯作者:林宏城 任东林

主要作者单位:中山大学附属第六医院


研究解读


2024年11月22日,中山大学附属第六医院林宏城教授等在Lancet子刊《电子临床医学》(eClinicalMedicine)(Q1区,IF2023:15.1)在线发表研究论文,旨在开发和验证一种基于MRI的深度学习分类器,以有效区分这两种疾病。


本研究回顾性纳入了2015年1月1日至2021年12月31日期间来自中国三家级转诊医院的1054例肛周瘘管型克罗恩病(PFCD)或隐窝腺源性瘘管(CGF)患者。患者被分为四个队列:训练队列(n=800)、验证队列(n=100)、内部测试队列(n=100)和外部测试队列(n=54)。使用包含44871张MRI图像的数据集,采用迁移学习策略分别训练了两个深度卷积神经网络(DCNN),即MobileNetV2和ResNet50。通过受试者工作特征曲线(ROC)分析、准确率、敏感性和特异性等多种指标,比较了DCNN模型与放射科医生的性能。采用DeLong检验比较曲线下面积(AUC)。进行了单因素和多因素分析,以探索与分类器性能相关的潜在因素。


研究共纳入了532例PFCD患者和522例CGF患者。在内部测试队列中,两个预训练的DCNN分类器均取得了令人鼓舞的性能(MobileNetV2 AUC:0.962,95% CI 0.903-0.990;ResNet50 AUC:0.963,95% CI 0.905-0.990),在外部测试队列中也表现良好(MobileNetV2 AUC:0.885,95% CI 0.769-0.956;ResNet50 AUC:0.874,95% CI 0.756-0.949)。它们的AUC均高于放射科医生(所有p≤0.001),而两者之间的AUC相当(在两个测试队列中,p值分别为0.83和0.60)。在病因诊断中,潜在特征对预训练的MobileNetV2分类器性能无显著影响。既往瘘管手术对内部测试队列中预训练的ResNet50分类器性能有影响(OR 0.157,95% CI 0.025-0.997,p=0.05)。


与人工视觉评估相比,开发的DCNN分类器在区分PFCD和CGF方面表现出更强的稳定性,显示出其辅助早期发现PFCD的潜力。本研究发现MobileNetV2在泛化性能上优于ResNet50,更适合在移动终端上部署。


每一项临床研究都倾注着研究团队的心血结晶。学习过后,您是否有所收获?或有疑问想与主创团队分享?请在评论区留言,期待与您交流!


END
200 评论

查看更多