华盛顿立法者和监管机构正在研究调节使用的复杂性人工智能(AI)在医疗保健领域,认识到未来的任务是艰巨的,并充满了挑战。
根据KFF健康新闻加利福尼亚大学弗朗西斯科大学医学系主席鲍勃·沃克特(Bob Wachter)承认挑战的巨大性,表达了人们对可能扼杀该领域创新的过度调节的潜力的担忧。

政策制定者落后
快速影响您有医疗保健食品药品监督管理局(FDA)批准了约692个AI产品,已经很明显了。
这些AI系统用于各种任务,从患者调度和人员配备决策等各种任务,以帮助解释MRIS和X射线等医学图像。
Wachter偶尔会从GPT-4等AI模型中寻求非正式建议,以进行复杂的医疗案件。尽管AI的影响不断增长,但政府法规仍在努力与该领域的进步保持同步。
Omers Ventures的高级管理合伙人迈克尔·杨(Michael Yang)表示,政策制定者落后,将这一差距归功于AI技术的快速发展。
据KFF Health News报道,监管机构面临着与传统药物不同的挑战,AI系统会随着时间的流逝而发展,需要灵活的治理框架。
白宫和几个以卫生为中心的机构为了确保透明度和隐私而努力,正在进行各个层次的努力。国会也表现出了兴趣,这在最近的参议院财务委员会听证会上关于医疗保健AI的听证会很明显。
新兴的监管景观引发了游说活动的增加,在倡导与AI相关政策的组织中观察到了巨大的激增。
Technet是一个著名的贸易集团,已发起了一项数百万美元的倡议,以通过电视广告和其他媒介来教育公众关于AI的好处。
在早期进行调节AI
Venrock Venrock的合伙人,前奥巴马政府官员鲍勃·科彻(Bob Kocher)向KFF Health News介绍了在早期阶段对AI进行调节的复杂性。
他强调了医疗保健专业人员在采用AI解决方案时可能面临的挑战,这主要是由于担心责任和不熟悉AI进行临床决策的不熟悉。
资本经济学的数据分析表明,在接下来的六个月中,有6.1%的医疗保健业务(6.1%)考虑将AI整合到其运营中,强调了AI在整个领域的逐渐采用。
但是,随着AI融入医疗保健,人们认识到对患者的潜在风险。与任何医疗产品一样,AI系统可以引入新型风险,包括产生不准确的信息。
Wachter分享了一个故事,其中AI模型构成了令人信服的笔记,据不存在研究,强调了医疗保健设置中AI应用程序中强大的监督和验证协议的需求。
