在美国各大医院,人工智能( AI )技术已被广泛用于辅助诊断、分诊重症病例以及转录病历记录。然而,《PLOS Digital Health》6月5日发布的一项研究指出,尽管 AI 应用迅猛发展,相关监管却严重滞后,引发了业内专家的担忧。

研究作者批评美国食品药品监督管理局( FDA )对医疗 AI 工具的审批存在诸多局限,并建议监管框架应超越 FDA 的职责范围,引入更广泛的监督机制,以确保这些工具的安全性和有效性。
医疗 AI 工具持续进化,监管难以跟上
截至目前,已有超过 1000 款医疗 AI 产品获得 FDA 批准,美国各地医院正在加速部署这些工具。然而,与传统药品等 FDA 管辖产品不同, AI 工具在获批后通常会随着新数据不断更新或再训练,这意味着它们是“动态演进”的系统,现行法规对此类持续变化的监督能力有限。
这种背景下,对医疗 AI 的监管问题尤为迫切,尤其是在联邦政府近期显露出可能放宽监管的迹象。早在今年1月,时任总统 唐纳德·特朗普 撤销了一项关于 AI 安全的行政命令,理由是“减少创新障碍”。随后, FDA 内负责 AI 和数字健康的部门也因裁员而人手紧张。
监管缺失可能导致医疗算法做出误导性建议,危及患者安全。 麻省理工学院( MIT )临床研究员、报告作者之一 Leo Anthony Celi 指出:“我们必须设置防护机制。但如果完全依赖 FDA 来制定这些机制,既不现实,也几乎不可能。”
审批门槛低,全球影响大
FDA 对 AI 医疗工具的审批标准,往往不如药品那样严格。由于许多国家依赖 FDA 的决策作为参考,其宽松的做法可能产生全球连锁效应。例如,只有被认为对患者构成较高风险的工具才需进行临床试验。
此外,许多 AI 算法在应用到训练数据以外的群体时表现不佳,因此即使获得 FDA 批准,也不意味着该工具一定能为目标人群带来益处。 Celi 强调:“算法如果不能适用于本地人群,可能会造成误判。”
医院应主动验证,现实却难以实现
理想情况下,医院应对 AI 工具在本院人群中的表现进行评估,并培训医护人员正确解读和应对算法结果。然而现实是,大多数医院和诊所缺乏资源组建 AI 团队来完成这些工作。Celi 指出,今年早些时候发表的一项研究显示,很多医院直接“现买现用” AI 工具,未做本地验证,“这无异于埋下隐患”。
对此,报告建议高校与医疗机构建立合作,参与 AI 工具的质量评估。“让大学协助医院的 IT 部门准备数据集、运行模型、评估算法、监测影响。”Celi 说,“这是全新的尝试,但我们认为,传统架构已无法应对这种高速发展的技术变革。”
医院之外的监管角色:CMS 和保险公司
FDA 本身并无权限要求医院在产品上市后进行这些测试。 斯坦福大学 的健康法律研究员 Michelle Mello 指出:“这本就不属于 FDA 的法定职责。问题在于,除了 FDA 之外,谁来参与监管、该怎么做?”
Mello 认为, 美国联邦医疗保险和医疗补助服务中心( CMS )可能成为关键角色。该机构负责为老年人和低收入群体提供公共医疗保险,有权以“获得报销”为条件,要求医院对 AI 工具进行更严格评估。她补充道,相比于其他联邦机构, CMS 在最近的预算削减中影响较小。
此外, 洛杉矶 西达赛奈医疗中心( Cedars–Sinai Medical Center )的心脏科医生 David Ouyang 也强调了保险公司在推动 AI 工具规范使用中的作用。他指出,许多获得 FDA 批准的工具没有被医保覆盖,是其迟迟未普及的主要原因之一。
“保险公司其实比 FDA 更严格。”Ouyang 说,“它们可以设定更高的证据门槛作为报销条件。因此,保险体系本身也可为 AI 的使用提供必要的安全护栏。”