医疗界迅速拥抱 AI,监管滞后引发专家担忧

释放双眼,带上耳机,听听看~!
美国医院和大学需补上监管漏洞,确保医疗 AI 工具安全有效

在美国各大医院,人工智能( AI )技术已被广泛用于辅助诊断、分诊重症病例以及转录病历记录。然而,《PLOS Digital Health》6月5日发布的一项研究指出,尽管 AI 应用迅猛发展,相关监管却严重滞后,引发了业内专家的担忧。

医疗界迅速拥抱 AI,监管滞后引发专家担忧

研究作者批评美国食品药品监督管理局( FDA )对医疗 AI 工具的审批存在诸多局限,并建议监管框架应超越 FDA 的职责范围,引入更广泛的监督机制,以确保这些工具的安全性和有效性。

医疗 AI 工具持续进化,监管难以跟上

截至目前,已有超过 1000 款医疗 AI 产品获得 FDA 批准,美国各地医院正在加速部署这些工具。然而,与传统药品等 FDA 管辖产品不同, AI 工具在获批后通常会随着新数据不断更新或再训练,这意味着它们是“动态演进”的系统,现行法规对此类持续变化的监督能力有限。

这种背景下,对医疗 AI 的监管问题尤为迫切,尤其是在联邦政府近期显露出可能放宽监管的迹象。早在今年1月,时任总统 唐纳德·特朗普 撤销了一项关于 AI 安全的行政命令,理由是“减少创新障碍”。随后, FDA 内负责 AI 和数字健康的部门也因裁员而人手紧张。

监管缺失可能导致医疗算法做出误导性建议,危及患者安全。 麻省理工学院( MIT )临床研究员、报告作者之一 Leo Anthony Celi 指出:“我们必须设置防护机制。但如果完全依赖 FDA 来制定这些机制,既不现实,也几乎不可能。”

审批门槛低,全球影响大

FDA 对 AI 医疗工具的审批标准,往往不如药品那样严格。由于许多国家依赖 FDA 的决策作为参考,其宽松的做法可能产生全球连锁效应。例如,只有被认为对患者构成较高风险的工具才需进行临床试验。

此外,许多 AI 算法在应用到训练数据以外的群体时表现不佳,因此即使获得 FDA 批准,也不意味着该工具一定能为目标人群带来益处。 Celi 强调:“算法如果不能适用于本地人群,可能会造成误判。”

医院应主动验证,现实却难以实现

理想情况下,医院应对 AI 工具在本院人群中的表现进行评估,并培训医护人员正确解读和应对算法结果。然而现实是,大多数医院和诊所缺乏资源组建 AI 团队来完成这些工作。Celi 指出,今年早些时候发表的一项研究显示,很多医院直接“现买现用” AI 工具,未做本地验证,“这无异于埋下隐患”。

对此,报告建议高校与医疗机构建立合作,参与 AI 工具的质量评估。“让大学协助医院的 IT 部门准备数据集、运行模型、评估算法、监测影响。”Celi 说,“这是全新的尝试,但我们认为,传统架构已无法应对这种高速发展的技术变革。”

医院之外的监管角色:CMS 和保险公司

FDA 本身并无权限要求医院在产品上市后进行这些测试。 斯坦福大学 的健康法律研究员 Michelle Mello 指出:“这本就不属于 FDA 的法定职责。问题在于,除了 FDA 之外,谁来参与监管、该怎么做?”

Mello 认为, 美国联邦医疗保险和医疗补助服务中心( CMS )可能成为关键角色。该机构负责为老年人和低收入群体提供公共医疗保险,有权以“获得报销”为条件,要求医院对 AI 工具进行更严格评估。她补充道,相比于其他联邦机构, CMS 在最近的预算削减中影响较小。

此外, 洛杉矶 西达赛奈医疗中心( Cedars–Sinai Medical Center )的心脏科医生 David Ouyang 也强调了保险公司在推动 AI 工具规范使用中的作用。他指出,许多获得 FDA 批准的工具没有被医保覆盖,是其迟迟未普及的主要原因之一。

“保险公司其实比 FDA 更严格。”Ouyang 说,“它们可以设定更高的证据门槛作为报销条件。因此,保险体系本身也可为 AI 的使用提供必要的安全护栏。”

AI工具测评文章

Hugging Face LeRobot重磅开源:AI机器人开发进入全民时代!

2025-6-9 23:39:55

AI前沿文章

网页爬虫AI机器人冲击科学数据库与期刊,学术网站流量告急

2025-6-10 22:44:56

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索