特刊封面
近年来,人工智能在医学影像分析中取得了巨大的进步,为计算机辅助诊疗带来突破。但目前,人工智能在临床环境中大规模推广应用仍然面临诸多挑战,其中突出的问题是其可解释性差、泛化能力弱,从而难以保证其稳定、可靠地落地使用。一方面,大部分人工智能模型的黑盒工作模式无法提供可解释的决策结果,而医学诊断是一个强调证据的决策过程,可解释性差的人工智能模型难以得到医生的信任;另一方面,临床环境中由于不同设备、不同影像扫描方式、病人差异等因素,使得人工智能模型在部署使用过程中通常会遇到与训练阶段分布不一致的图像,这种差异性为模型的泛化性带来巨大挑战,阻碍了其大规模跨中心推广应用。因此,亟需研究新型的具有可解释性和泛化性的人工智能方法,以确保其在临床应用中的可靠使用。
针对这一瓶颈问题,上海人工智能实验室联合罗格斯大学、宾夕法尼亚州立大学、伦敦国王学院以及电子科技大学等机构,在医学影像人工智能领域顶级期刊《Medical Image Analysis》编辑了《Explainable and Generalizable Deep Learning Methods for Medical Image Computing》特刊。自2021年5月底至2021年12月中旬征稿期间,共吸引来自全球20余个国家的73篇高水平论文投稿,创下《Medical Image Analysis》特刊的投稿量历史之最,亦体现了医学影像人工智能的可解释性和泛化性问题在业内受到的高度关注。
部分收录论文
经过严格的审稿程序,最终20篇优秀论文被本特刊收录,它们从投稿到正式接收的平均时间约为40周。其中,11篇论文聚焦基于医学影像的AI诊断模型的可解释性问题。这些论文对该热点问题提出了不同的探索角度:通过在卷积神经网络或Transformer结构中引入注意力机制,来提高图像分类和检测任务中模型的可解释性(4篇);在与领域知识相结合的基础上,开发具有临床相关性的可解释深度学习模型,在肝癌、乳腺癌、肺部疾病诊断等不同任务中提高了模型的可解释性(4篇);通过样本层面的对比或分析,为模型的预测结果提供支持性解释(2篇)。同时,在本特刊中,研究者们也提出了一些开发临床可解释的人工智能模型的准则,例如对模型的解释应当具有可理解性和临床相关性,可解释性技术应当在真实性、信息合理性和计算高效性等方面进行优化等。
在模型的泛化性方面,本特刊中有5篇论文在图像分类、分割等多种任务中提出了新型的泛化能力强的人工智能方法,例如引入领域知识的指导、通过先验知识对模型预测结果进行正则化约束、学习域不变特征、利用图谱和新型数据增广方法等提高AI模型在跨中心、跨领域数据上的泛化能力。
此外,有4篇论文关注AI模型跨域适应和处理低质量标签的问题。其中2篇论文提出了针对不同数据域中的胸部X光图像、肺部CT图像、前列腺和心脏图像等的识别的无监督跨域适应方法,它们通过对抗学习、域不变特征与域特异性特征分解等方式,提高了模型的跨域适应能力;另外2篇论文分别研究了图像分割任务中的稀疏标注和图像分类任务中的不确定标注的学习问题,通过新型的训练方式,极大减少了深度学习模型对大规模精确标注的依赖,有利于降低AI模型在迁移到新数据域时的标注成本。
该特刊由上海人工智能实验室智慧医疗中心主任张少霆、罗格斯大学讲席教授Dimitris Metaxas、伦敦国王学院教授Tom Vercauteren、宾夕法尼亚州立大学教授黄晓蕾以及电子科技大学副教授王国泰等主编。
上海人工智能实验室智慧医疗研究中心
旨在通过人工智能与医学的深度交叉融合,基于产业发展的政策推动和行业需求,为医疗健康行业的技术创新与基础研究探索前沿的技术突破与创新思路,科研成果入选The Lancet Digital Health、Nature Machine Intelligence、Nature Communication、Medical Image Analysis、IEEE Transactions on Medical Imaging 等国际顶刊。
如需申请加入课题组研究或了解课题组更多信息,请发邮件至:zhangshaoting@pjlab.org.cn,jilu@pjlab.org.cn
特刊链接:https://www.sciencedirect.com/journal/medical-image-analysis/special-issue/10JN5G558RM
上海市徐汇区龙文路129号
国际传媒港L1楼
联系我们
comm@pjlab.org.cn
Copyright © 2025 Shanghai Artificial Intelligence Laboratory
沪ICP备2021009351号-1