当 AI 开始给精神科续药:乌托邦的效率,还是医疗的偷懒?

一张处方,第一次交给聊天机器人
AI 进入医疗,大家早就不陌生了。看片子、写病历、做分诊、提醒吃药,这些场景都已经有公司在试。可这一次,边界又往前推了一步:美国犹他州批准了一项为期一年的试点,让旧金山初创公司 Legion Health 的 AI 聊天机器人,在特定条件下为部分精神科患者续开处方药。
这不是那种“医生在背后兜底,AI 只是做个建议”的温和版本,而是更接近一种有限授权:只要患者符合条件,系统就可以完成某些精神科维持治疗药物的续方流程。它不是全自动放飞自我,但已经足够让精神科医生警觉。因为精神科的药,不像感冒药那样“吃完再来一盒”就行。很多时候,续药本身就是复诊的一部分,背后牵着的是病情变化、依从性、副作用,甚至是自伤和自杀风险。
犹他州官方给出的理由很漂亮:精神健康服务短缺、成本太高、很多人排不上号。州政府估计,当地有 50 万人缺乏心理健康照护。Legion Health 也把这项服务包装得很直接:每月 19 美元,主打“快速、简单地续药”。这个产品逻辑非常硅谷——把一个原本昂贵、缓慢、需要人力的流程,拆成标准化表单,再交给软件去做。听上去很顺,直到它碰上精神科。
它到底能做什么?其实比想象中“克制”
如果只看标题,很多人会以为“AI 开始开精神科药了”。其实这次试点的范围被压得很窄。AI 不能开新药,只能给已经由临床医生开过的部分维持性药物续方;药物也只限于 15 种风险相对较低的选择,包括百忧解(Prozac)、舍曲林(Zoloft)、安非他酮(Wellbutrin)、米氮平和羟嗪这类常见的抗焦虑、抗抑郁药。
更复杂、更危险、也更需要密切观察的药物,基本被排除在外。像需要验血监测的药、受管制药物、多数 ADHD 药物、苯二氮卓类抗焦虑药、抗精神病药,以及治疗双相障碍的经典药物锂盐,都不在它的权限里。说得直白一点,这个 AI 目前只被允许碰“相对简单的续杯”,不能碰“重新配方”。
患者条件也卡得很严。最近一年内如果有精神科住院史,最近改过剂量或换过药,就不能使用。患者还必须每 10 次续方或 6 个月内——谁先到算谁——回到人类医疗人员那里做一次检查。使用流程也不算特别草率:用户要主动选择加入,验证身份,证明自己确实已有处方,比如上传药瓶标签照片,然后回答关于症状、副作用、疗效、自杀念头、自伤风险、严重不良反应和怀孕情况的问题。一旦答案超出“低风险”范围,系统应转交临床医生处理,患者和药师也可以主动要求人工复核。
从设计上看,它努力把自己装进一个很小的安全盒子里。问题在于,精神科恰恰是一个最不适合被“盒子化”的领域。
为什么精神科医生没有鼓掌
不少精神科医生的核心疑问其实非常朴素:这东西到底解决了什么问题?
支持者会说,续药流程里有大量重复劳动,医生花时间做这些低风险事务,不如把精力留给更复杂的病人。这种说法并不陌生,几乎每一轮医疗 AI 浪潮都会这么讲:让机器处理标准化任务,让医生去做更有价值的事。理论没错,甚至很诱人。
但反对者指出,真正最缺照护的那批人,往往恰恰不是“病情稳定、已有处方、能按规则完成问答”的患者。犹他大学医学院精神科医生 Brent Kious 就直言,这类系统的好处可能被夸大了。因为它服务的对象,本来就已经在治疗路径里了。换句话说,它可能提升的是“已经被服务的人”的便利,而不是扩大“没被服务的人”的覆盖面。
这点特别重要。今天很多 AI 医疗产品最擅长做的,不是填补医疗荒漠,而是优化中产阶级的就医体验:挂号快一点,问诊顺一点,药来得早一点。它们改善的是流程,不一定改善的是公平。心理健康领域尤其如此。真正处在高风险状态、表达能力有限、经济条件紧张,或者本身就难以持续就医的人,往往最不容易从这类工具受益。
还有一个更微妙的问题:精神科续药,从来不只是“药吃完了,再来一盒”。有些患者确实适合长期服药,但也有些人应当减量、换药,甚至停药。哈佛医学院精神病学教授 John Torous 提醒,药物管理需要持续、主动、细致的判断。如果把例行续药交给聊天机器人,医生和患者之间本来应该发生的那种“顺便聊一聊近况”的临床接触,很可能就消失了。
精神科最怕的,不是忙,而是麻木。一个人连续几个月顺利点“续药”,并不代表他的生活真的稳定。失眠加重、情绪迟钝、性功能副作用、体重变化、工作状态变差、家庭关系恶化,这些都可能不会被问卷精准捕捉,却会被一个有经验的医生在几分钟对话里隐约察觉到。医疗里的很多判断,靠的不是一句“你最近还好吗”,而是“你说自己没事,但你的眼神、语速、停顿和坐姿都在说别的”。这恰恰是聊天机器人最难拿捏的部分。
AI 医疗的老问题:黑箱、责任和“说你想听的话”
比效率争议更棘手的,是安全性和可解释性。
Kious 形容如今这类系统有点像“炼金术”——大家知道它可能有用,但外界并不清楚它到底如何得出结论。对于普通消费级聊天机器人,我们已经见过太多离谱案例:胡编法条、捏造论文、在危机求助时给出错误热线号码。医疗级系统当然不会直接拿通用模型上线,它们会加规则、加审核、加限制,但根本问题仍然存在:当一个系统判断“这位患者可以续药”时,它究竟基于什么逻辑?出现漏判时,责任在公司、在州政府、在药师,还是在那个按下确认键的患者?
尤其在精神科,自我报告本来就是核心信息来源,而自我报告也是最脆弱的一环。患者可能没意识到副作用,可能低估风险,也可能为了尽快拿到药而“答得更标准”。这不是在指责病人不诚实,而是精神疾病本身就可能影响判断、表达和求助方式。人类医生也会被误导,但至少他还可以追问、观察、怀疑,甚至从一个微小的表情变化里嗅到不对劲。聊天机器人则更容易被“表面正常”糊弄过去。
这让我想到另一个现实背景:过去两年,AI 公司特别热衷把产品包装成“陪伴”“支持”“全天候”。可一旦进入心理健康甚至用药管理,所谓的“全天候可用”就不再只是产品卖点,而是一种临床承诺。承诺越大,事故后的代价越高。我们已经见过太多企业在宣传时强调普惠与效率,等到风险暴露时,又迅速把自己退回“我们只是工具,不是医生”的安全地带。医疗不该这么玩。
这件事真正重要的地方,不在续药,而在授权边界
犹他州这次试点之所以值得警惕,不是因为它立刻会颠覆精神科,而是因为它在制度层面开了一个口子:国家机器开始把某种临床权力,正式让渡给 AI 系统。哪怕这次权限很小、时间很短、范围很窄,它仍然是一个标志性动作。
过去几年,医疗 AI 的监管讨论主要集中在“能不能辅助医生”。现在问题变成了“在什么条件下,它可以替代医生做一部分决定”。这两者差别极大。前者是望远镜,后者开始像方向盘。一个行业往往不是在最激进的时候改变规则,而是在这些看似温和、合理、低风险的小试点里,慢慢把边界推过去。
从商业上看,这种模式显然很有吸引力。19 美元包月,订阅制,轻量服务,高频需求,理论上还能不断扩展到复诊、分诊、病程随访,甚至更多专科场景。Legion Health CEO 已经把它描述为“比续药更大的开始”,这话一点都不夸张。续药只是入口,真正诱人的,是把原本由医生掌握的高价值、标准化、可规模化流程一层层软件化。
但医疗不是打车软件,精神科更不是客服系统。它当然需要效率工具,也确实需要更便宜、更可及的服务,可如果改革的办法,是把最需要谨慎和关系性的部分抽离出去,交给一个外部很难审视的模型,那我们得到的可能不是更现代的医疗,而是更便宜的、也更疏离的医疗。
我并不认为这类系统注定失败。对于病情稳定、清楚自己在吃什么药、只是厌倦为了续方反复预约的人来说,AI 续药确实可能省时、省钱、少折腾。问题是,它必须被摆在极其明确的位置上:它是行政自动化工具,不是临床判断的替代品;它可以减少摩擦,但不能取代关系;它可以帮医生清理流水线,却不该成为系统逃避增加真实医护供给的借口。
技术行业总爱说一句话:先让它跑起来,再慢慢修。可精神科不是修 Bug 的地方。这里面对的是那些在一天里最脆弱、最摇摆、最难开口的人。你可以让算法帮忙,但别太快把照料的责任,也一并外包出去。