当 AI 走进诊室:一场加州诉讼,把“看病隐私”重新推上手术台

诊室里的那支“隐形录音笔”
看病这件事,很多时候比我们想象得更私人。你会告诉医生那些连家人都未必知道的事:胸口痛了多久、有没有失眠、是不是偷偷停过药、家族里谁得过癌症,甚至包括情绪、性生活、成瘾史。诊室之所以是诊室,不只是因为有听诊器和白大褂,还因为那里默认存在一种朴素的信任:我可以把最脆弱的话交给你,而你不会让它跑出这扇门。
但现在,这扇门后面多了一位“看不见的听众”。据 Ars Technica 报道,几位加州患者本周在旧金山联邦法院提起拟议中的集体诉讼,起诉医疗机构 Sutter Health 和 MemorialCare,称后者在就诊过程中使用了 Abridge AI 转录工具,未经充分同意便录下并处理了他们与医生的对话。原告认为,这些录音不仅被 AI 系统捕捉,还被传输到诊疗现场之外,并经由第三方系统处理,涉嫌违反州和联邦法律。
这起案子真正刺痛人的地方,不在“AI 做了记录”本身,而在于患者的感受很可能是:我来医院是看病,不是参加一场默认开启的语音采集测试。尤其是起诉书里提到,录音内容包含可识别身份的医疗信息,涉及病史、症状、诊断、用药和治疗讨论。换句话说,这不是普通客服通话录音,而是最敏感的健康数据。
医疗 AI 为什么突然无处不在
如果你最近两年在美国的大型医疗机构看过病,尤其是 Kaiser Permanente、梅奥诊所、Duke Health 这类体系,听过医生说“我这边开一下记录工具”,并不稀奇。Abridge 这一类产品的卖点非常直接:它能自动捕捉医患对话,转成文字,再总结成临床笔记,直接减轻医生面对电子病历系统时的文书负担。
这个需求是真实而强烈的。过去十多年,美国医生被电子病历系统折磨得够呛,这几乎成了行业共识。很多医生下班后还要“补病历”,在美国甚至有个半自嘲的词叫“pajama time”——穿着睡衣继续在家写病历。AI 语音转录和总结工具之所以迅速攻城略地,不是因为它有多炫,而是因为它精准打中了医疗系统最痛的一根神经:医生没时间。
Abridge 也正是在这种背景下崛起的。报道提到,这家公司到 2025 年 6 月时估值已达到 53 亿美元,增长速度非常惊人。医疗机构喜欢它,因为它承诺提升临床效率、改善护士和财务流程的结果;医生喜欢它,因为终于有人——哪怕是 AI——愿意替自己做一点“脏活累活”;投资人更喜欢,因为“AI+医疗”这四个字在资本市场几乎自带光环。
问题在于,医疗行业不是普通 SaaS 市场。你可以容忍会议纪要软件偶尔记错一句老板的话,但你很难轻松接受 AI 把你的抑郁病史、流产经历、HIV 状态或者肿瘤治疗方案上传到一个你并不理解的外部系统里。医疗 AI 的效率红利越诱人,隐私的代价就越不能糊里糊涂地算过去。
这场官司,争的不是“能不能用 AI”,而是“谁有权决定”
从目前披露的信息看,原告最核心的指控点并不是医疗机构永远不能使用 AI,而是患者没有收到清晰通知,也没有对录音、外传和第三方处理给出明确同意。这是两个完全不同的问题。
很多医院管理者可能会觉得委屈:我们是在优化流程、帮助医生、提升就诊质量,又不是把病人聊天内容拿去卖广告。但患者未必会这么看。因为在隐私问题上,善意并不能自动抵消越界。尤其是在美国这样一个对医疗隐私高度敏感、法律体系又非常诉讼化的环境里,“我们以为你知道”往往不是一个安全答案。
这让我想到近几年一个越来越明显的行业误区:只要 AI 最终服务于“改善体验”或“提高效率”,很多部署方就会默认用户应该接受。可现实恰恰相反。越是涉及生物识别、语音、面部、定位、健康等敏感信息,越不能靠默认勾选、口头带过或者写进冗长隐私条款里蒙混过关。诊室里的同意,应该像手术同意书一样清楚,而不是像 App 弹窗一样烦人却模糊。
如果这起诉讼推进下去,它很可能会逼整个行业回答几个尴尬但关键的问题:医患对话的录音到底存在哪里?保留多久?谁能访问?是否会被用来训练模型?病人拒绝后会不会影响就诊流程?医生是否有替患者做这个决定的权利?这些问题以前常被藏在采购合同和 IT 合规流程里,但现在,它们正被患者直接拉到法庭上。
隐私恐慌背后,也别忽略 AI 的真实价值
说到底,我并不认为这类 AI 工具应该被一棍子打死。相反,它们很可能会长期留在医疗现场。一个会自动整理病历、减少漏记、帮助医生更专注看病人的系统,理论上确实能改善医疗体验。对那些门诊量极高、文书压力极大的医生来说,这不只是“省事”,甚至可能直接关系到职业倦怠和医疗质量。
Ars 文章里提到,作者本人过去两年在北加州 Kaiser 就诊时,就曾同意使用类似工具。这一点很重要:同样的技术,在“知情同意”前提下,和在“患者毫不知情”情况下,社会接受度完全不同。很多患者未必反对录音,只是反对自己在不知道的情况下被录音;很多人也未必反对 AI 总结病历,只是希望自己能清楚知道数据去了哪儿。
这其实是今天几乎所有 AI 落地场景都会撞上的一堵墙:不是技术做不到,而是社会许可还没跟上。AI 公司往往擅长讲效率故事,医院擅长讲服务升级故事,但患者最在意的是更朴素的东西——我是否被尊重,我是否真正有选择权,我最私密的信息会不会在一个漫长的数据链条中失控。
更现实一点说,一旦医疗 AI 在隐私上翻车,后果会比普通互联网产品严重得多。社交平台泄露你的兴趣标签,令人烦躁;医疗系统若处理失当,泄露的是疾病、用药、精神状况、生育经历,那可能改变一个人的工作机会、保险待遇,甚至家庭关系。这不是“算法推荐错了几条内容”能类比的。
接下来,医院和 AI 公司都得学会一件更老派的事
这起案件发生的时间点也很微妙。2026 年,生成式 AI 已经过了最初那种“只要沾 AI 就能融资”的兴奋期,正进入真正落地、真正担责的阶段。医疗是公认最有价值的应用场景之一,但也是最不允许犯低级错误的场景之一。过去一年,各家医疗机构都在加速引入环境监听、自动病历、临床总结助手,仿佛谁慢一步就会落后。现在看来,跑得太快也可能踩空。
Sutter Health 表示其重视患者隐私,临床技术会依照相关法律法规审慎评估和实施;MemorialCare 则拒绝评论未决诉讼。Abridge 暂未回应。几乎可以预见,未来一段时间,美国医院在部署此类系统时会把“同意机制”重新装修一遍:更显眼的告知、更清楚的流程、更明确的退出选项,甚至可能在诊室里出现类似“本次就诊是否启用 AI 记录”的标准化确认。
说起来有点讽刺,最前沿的 AI 技术,最后可能要靠最传统的新闻原则来保命:把事情说明白。别把患者当作默认参与者,也别把隐私当作部署成本里最容易压缩的一项。医疗系统如果真想让 AI 留在诊室,就得先让病人相信,麦克风不会背叛他们。
这件事还有一个值得延伸思考的方向:当 AI 越来越像“基础设施”一样嵌入医院,患者是否需要拥有一种更细粒度的数据控制权?比如允许生成当次病历、但不同意长期保存原始音频;允许医院内部使用、但不同意第三方模型训练;允许文字摘要进入病历、但要求录音即刻删除。未来医疗隐私保护,恐怕不能只靠一句“我同意”,而要进入更精细的权限时代。
技术进步当然值得欢迎,尤其是在医生被文书工作拖垮的时候。但诊室不是会议室,病人也不是待优化的工作流节点。AI 可以当医生的助手,却不能悄悄成为患者秘密的旁听者。