美国犹他州启动新试点项目:AI 为患者开具精神类药物处方
背景
近年来,人工智能在医疗领域的应用迅速发展,尤其在精神健康领域展现出潜力。由于精神科医生资源紧张、诊疗等待时间长,美国多个州开始探索AI辅助诊疗的可能性。犹他州作为前沿试点地区,上周宣布与旧金山初创公司Legion Health合作,启动一项为期一年的AI处方试点项目。
该项目的目标是缓解精神科医疗资源短缺问题,为已有明确治疗方案的患者提供更便捷的药物续方服务。Legion Health提供的AI系统被命名为“AI Chatbot”,已获得相关授权,可在特定范围内自动开具处方。
试点项目详情
AI系统通过聊天机器人界面与患者互动,分析其病史和当前症状,判断是否适合继续使用原药物。该系统仅限于开具精神类维持性药物,目前覆盖15种低风险药物,包括:
- 氟西汀(百忧解)
- 舍曲林(左洛复)
- 安非他酮(威博适)
- 米氮平
- 羟嗪等常用抗抑郁与抗焦虑药物
系统不会开具新处方、需要定期验血的药物或任何管制药品,如ADHD药物、苯二氮卓类安眠药、抗精神病药物或锂盐等。每次续药后,患者需在10次续药或6个月内与人工医生进行一次确认。

用户每月支付19美元订阅费即可享受服务,Legion Health强调该服务“快速、简单”,旨在改善患者体验并提升处方效率。
技术与安全机制
Legion Health的AI系统基于大量医疗数据训练,能够识别患者的病情变化并提出合理建议。系统在问诊过程中会主动询问是否存在“红旗症状”,例如自杀倾向、自残行为、严重过敏反应等。一旦识别出高风险症状,系统将自动将患者转接至人类医生。
尽管系统设置了多层安全机制,但此前在另一家公司Doctronic的试点项目中,安全研究员成功诱导AI传播疫苗阴谋论、制作冰毒指南,甚至将阿片类药物剂量错误地增加三倍,引发公众对AI医疗系统滥用和安全性的担忧。
伦理与医学界质疑
该项目引发医学界广泛讨论,犹他大学精神科医生Brent Kious表示,AI自动化可能导致“过度治疗”——患者在没有医生定期评估的情况下长期续药,可能掩盖其病情变化或产生药物依赖。
哈佛医学院John Torous教授则指出,处方行为远非简单的算法判断,涉及对患者整体状况、用药史和生活方式的综合理解。他认为当前AI系统的决策机制“有点像炼金术”,应在具备更多透明度和科学验证后,再考虑推广应用。
社会影响与潜在风险
这一试点项目使AI首次在美国获得正式处方权,标志着AI在临床医疗中的角色进一步拓展。尽管Legion Health强调AI仅用于维持性治疗,且处方范围受到严格限制,但其背后仍存在多项风险:
- 医疗责任归属不清:若AI开具处方后患者出现不良反应,责任由谁承担尚无明确答案。
- 伦理问题突出:患者是否应完全信任一个聊天机器人来决定自己的药物使用?
- 监管空白:AI在医疗行为中的监管机制尚未健全,可能被滥用或绕过安全限制。
与此同时,支持者认为该项目有助于提升偏远地区或医疗资源匮乏地区的处方可及性,尤其是对已有稳定治疗方案的患者而言,能减少频繁就诊带来的负担。
未来展望
犹他州政府表示,该项目将定期接受评估,若效果良好,可能扩展至更多疾病领域。然而,该项目的持续推进也依赖于公众信任、技术进步与政策监管的协同完善。
当前,AI在医疗领域的角色仍应被谨慎对待。如何在提升效率与保障患者安全之间取得平衡,是未来AI医疗发展的关键课题。