效果极不稳定!AI可能会在医学中“帮倒忙” 甚至危害病人健康
在信息时代,计算机科学已经进入了生活的方方面面。在十万火急的新冠肺炎疫情中,许多国家早期因为缺乏检测能力,也引入AI作为辅助手段。然而,一项最新研究表明,机器学习和人工智能在医学图像重建中极不稳定,可能导致误报和漏报。
由剑桥大学和西蒙弗雷泽大学领导的一个研究小组,设计了一系列基于AI和深度学习的医学图像重建算法测试,发现这些技术导致了无数的人工干扰和不必要的改变,并最终图像中一系列主要错误。
而且,这一现象在不同类型的人工神经网络中普遍存在,说明要解决它并不容易。
基于研究成果,研究人员警告说,依靠基于AI的图像重建技术进行诊断和确定治疗,最终反而可能对患者造成伤害。
他们的研究结果以On instabilities of deep learning in image reconstruction and the potential costs of AI(图像重建中深度学习的不稳定性及人工智能的潜在代价)为题发表在《美国国家科学院院刊》上。
目前,依据被扫描区域的大小和所拍摄图像的数量,典型的核磁共振扫描时间一般在15分钟到2小时之间。机器扫描患者的时间越长,最终图像的分辨率就越高。然而,患者接受机器扫描的时间是有限的,这一方面出于健康考虑,另一方面也是为了追求扫描效率最大化。
利用AI技术提高核磁共振扫描或其他医学成像手段得到的图像质量,以解决检测时间和检测质量的矛盾,这是当下医学界很有吸引力的想法。
获取低分辨率图像,通过算法补充细节,使其成为高分辨率版本,这是AI的强项。AI算法可以“学习”基于先前数据的训练重建图像,并通过训练过程不断优化自身。比起传统依靠纯数学计算的重建技术,这是一个根本性的变化,效率要高得多。
但正因为它不是纯数学计算,AI常常会犯一些奇怪的问题,比如说,只要图像中出现1个哪怕是微小到肉眼几乎看不见的变化,都可能会让算法将一只猫识别为卡车或桌子。在这个图像分类的例子中,一个可能出错的地方是图像分类错误。
这只是在图像分类的问题,在医学领域,医生们更关心AI在图像重建方面的问题。例如,类似于肿瘤这样的细节可能会被AI错误地丢弃,或者反过来错误地添加。细节可能会模糊,图像中可能会出现不需要的马赛克。
在实验中,科学家考虑了3个关键问题:与微小扰动或运动相关的不稳定性;与微小结构变化相关的不稳定性,如有或无小肿瘤的大脑图像;与样本数量变化相关的不稳定性。
某些微小的运动导致最终图像中有无数的人工干扰,部分重要细节被模糊或完全去除。随着重复的亚采样,图像重建的质量会下降。这些错误在不同类型的神经网络中普遍存在。在实际应用场景中,由于一线医生不一定懂技术,他们可能会将这一结果当做医学问题,并提出错误的解决方案。
不过,总体而言,AI在新冠肺炎疫情中还是起到了很大作用。今年3月发表在《美国X射线学杂志》网络版上的研究显示,一种叫AI-Rad Companion的胸部扫描算法提供的结果可与肺功能测试的结果相媲美。
更早之前,达摩院联合阿里云也研发了一套AI诊断技术,利用该技术,AI可以在20秒内准确地对新冠疑似病例CT影像做出判读,分析结果准确率达到96%,大幅提升诊断效率。仅到2月23日,该AI算法就已经对3万多个临床疑似病例进行了诊断。
显然,不将AI用作图像重建,仅将其用于图像识别,AI还是有较高可靠性的。
除此以外,AI还在其他方面参与医疗救治。5月11日发表在《自然·医学》上的文章称,英美科学家组成的团队开发了一种AI工具,使用新冠肺炎追踪APP的数据,通过比较人们自报症状和传统测试的结果,来预测其是否感染新冠肺炎。
编译/前瞻经济学人APP资讯组
参考资料:
[1]
[2]https://www.pnas.org/content/early/2020/05/08/1907377117
本文来自: 前瞻网