美国犹他州做了个试点,把人工智能系统的处方权给开放了。这事儿让医疗界和社会都开始议

美国犹他州做了个试点,把人工智能系统的处方权给开放了。这事儿让医疗界和社会都开始议论纷纷。具体是这样的,人工智能在医生不在场的情况下,给那些需要长期吃药的慢性病患者开重复处方,然后直接把处方发给药房。这是美国第一个官方的试点项目,让AI自己做医疗决策。相关部门说这个试点主要针对那些需要长期稳定用药的慢性病患者。AI系统先查看电子病历和过去的用药记录,再问一些标准化的问题,就可以给病人续药了。 支持者觉得这个项目挺好的,可以优化医疗资源分配,给缺医生的乡村地区提供帮助,还能减少病人因为手续麻烦而中断用药。长远来看还能降低整体医疗系统的运行成本。但是医生们就比较谨慎了。美国医学协会的头儿约翰・怀特说过,医疗行为不光是要对就行,还要有人来做判断和承担责任。就算是开重复的处方也不能马虎啊,身体变化、药物副作用什么的都得考虑进去。 如果没人看着的话自动化决策可能有风险呢。所以这个试点项目设计了一套分阶段实施和多重审核机制。刚开始的时候每种药物前250例都要医生审核一下;之后系统就能自己跑了,不过还是会随机抽10%的案例来检查安全问题。 这个设计是为了慢慢探索AI在真实环境中的可靠性数据,并且为以后的监管提供依据。现在AI技术在影像诊断、病历分析和药物研发这些领域已经很普遍了,但是直接给开处方的权限还是很少见的事儿呢。医疗行业本来就很谨慎嘛。 有人分析说医疗AI发展不光要看技术行不行,还得跨过多重门槛呢:法律法规、责任划分、医保支付、病人知情同意这些都要解决。犹他州这次试点就是在尝试建立一个“安全测试场”。 不过这也说明了技术发展太快了,现有的监管体系有点跟不上节奏了。美国医疗监管是联邦和各州分开管的,在快速变化的AI产品面前政策调整总是很慢。怎么鼓励创新又保障患者安全?这就是个大难题了。 人工智能和医疗行业结合是大趋势啊。它能提高效率、填补资源缺口确实很厉害。不过犹他州这个项目引发的讨论也告诉我们,每一步都要以安全伦理为基础呢。技术创新不能光靠自己冒险,还得有严谨的临床验证、透明的监管机制、明确的权责划分和广泛的社会讨论才行。 在追求智能化医疗未来的路上,确保人的健康是第一位的平衡“赋能”和“护航”的关系才是所有参与者必须面对的课题呢。