ChatGPT 现在可以在极端情况下提醒一个真实的人:你可能需要被关心一下。

这听起来很温和,边界却很硬。OpenAI 正在推出 Trusted Contact,一个面向成年用户的可选安全功能。用户提前指定一名成年信任联系人,只有当对话被判断存在严重自伤风险,并经过人工复核后,平台才可能通知对方。

发布说明里最有价值的,不是“有这个功能”,而是它把几条边界讲清楚了:不自动报警,不联系警方,不发送聊天记录,不把联系人变成后台监控者。

这几条边界,决定了它到底是救命绳,还是越界线。

发生了什么:一个很窄的安全开关

Trusted Contact 的设计并不复杂。

问题目前规则
谁能用18 岁以上成年人自愿开启,韩国为 19 岁以上
能指定谁一名成年朋友、家人或照护者
如何生效联系人收到邀请,并需在一周内接受
什么情况触发系统识别严重自伤风险后,再提示用户可能通知联系人
谁来复核一小组受过训练的人员人工审核,OpenAI 称力争一小时内完成
通知内容简短风险提醒和关心建议,不包含聊天详情或完整记录

用户可以随时移除或更换联系人。联系人也能退出。

OpenAI 还强调,这不是专业护理,不替代危机热线,也不替代紧急服务。它只是把 AI 对话里的风险信号,有限地接到一个现实人际关系上。

这比此前青少年账号的家长安全通知更敏感。因为对象变成成年人后,问题立刻变了:谁有权知道一个成年人的心理危机?平台能在什么条件下介入?用户授权到底授权了什么?

为什么重要:AI 不再只待在聊天框里

过去很多 AI 陪伴产品讲的是同一个增长故事:更会倾听,更有记忆,更像朋友,更能陪你聊很久。

但心理危机不是留存指标。

一个系统越能接住用户的脆弱,越不能假装自己能独自承担后果。OpenAI 这次少见地后退了一步:模型不再扮演万能安慰者,而是承认有些时刻必须把人从对话里拉回现实关系。

这一步是对的。

AI 可以识别危险信号,可以缓冲情绪,可以递出热线信息。但当一个人真的站在边缘,最重要的往往不是模型再生成一段更温柔的话,而是有人敲门、打电话、出现在身边。

“独木不成林。”这句话放在这里不虚。AI 陪伴最危险的幻觉,就是把一段永不疲惫的对话误认成人际关系本身。

Trusted Contact 的价值,恰恰在于它没有把用户继续往模型里拽,而是把出口接向一个真人。

谁受影响:不是所有用户,主要是两类人

普通用户不必把它理解成 ChatGPT 开始“监视你”。按 OpenAI 的说法,它是成年人自愿开启,联系人也要接受邀请,触发条件限定在严重自伤风险。

真正受影响的是两类人。

一类是已经把 ChatGPT 当作情绪出口的人。尤其是那些不愿开口求助、但会在深夜对 AI 倾倒脆弱的人。对他们来说,这个功能可能是多一层缓冲。它不解决心理困境,但可能在最危险的一小时里增加一个现实连接。

另一类是被指定的信任联系人。这个角色听起来像“朋友”,实际会承担压力。收到通知的人不会看到聊天记录,却会被告知:某个人可能有严重自伤风险,你最好主动关心。

这不是轻飘飘的提醒。它把一个本来发生在用户和模型之间的信号,转交给现实中的某个人。对亲友、伴侣、照护者来说,责任感会被立刻点燃,但信息又不完整。

这就是设计难处:给太多信息,侵犯隐私;给太少信息,联系人可能不知道该怎么做。

真正难的是误判、责任和边界

我对这个功能偏正面,但不想把它夸成安全神话。

它做对了一件事:承认 AI 有边界。它也立刻撞上三堵墙。

第一堵墙是误判。

误报会伤害隐私和信任。一个人可能只是在表达痛苦、回忆创伤、写虚构文本,却被系统判成高风险。哪怕通知不包含聊天记录,只要信任联系人被惊动,用户就可能觉得自己被背叛。

漏报更麻烦。真有严重风险却没有触发,平台又会被追问:你既然有识别和人工复核机制,为什么没发现?

OpenAI 加入人工审核,是必要的刹车。但“力争一小时内完成”不是硬承诺。危机也不会按工单节奏排队。

第二堵墙是责任。

以前平台可以说,我只是提供信息、安抚话术、热线链接。现在链条变长了:系统识别风险,提示用户,人工复核,再通知现实中的一个人。

链条越长,责任越具体。

平台不再只是聊天工具。它开始变成半个公共安全节点。这个身份很重。重到不是产品经理写几段说明文就能扛住。

第三堵墙是边界。

今天的边界是:自愿、成年、一名联系人、不发记录、严重风险、人工复核。

这些边界必须守住。

科技公司最容易犯的错,不是从一开始就作恶,而是拿一个正确目标慢慢扩权。为了安全,多收一点数据;为了干预,多看一点内容;为了减少风险,多通知几个对象;为了合规,再把流程接给更多机构。

安全叙事一旦压过用户选择,支持就会滑向监控。

这不是阴谋论,是平台史反复演过的戏。社交网络最初也说自己只是连接朋友,后来广告系统、推荐系统、内容审核系统一起长出来,平台权力就不再只是“连接”。技术一旦接管入口,就会自然想接管更多后果。

Trusted Contact 目前不像那种失控扩张。它的设计算克制。但克制不是发布日说出来的,克制要靠长期执行证明。

接下来该看什么:四个变量比口号重要

这个功能真正成败,不在页面文案,而在执行细节。

要看什么算“严重自伤风险”。如果标准太松,用户会关闭功能;如果标准太紧,它又可能错过关键时刻。

要看人工审核怎么训练。审核员面对的是高度敏感、语境复杂的内容。自伤表达、文学创作、求助暗示、愤怒宣泄,很多时候只差几句话。

要看通知频率怎么控制。一次必要提醒可能救人,频繁误触会摧毁信任。心理安全产品最怕“狼来了”。

还要看用户是否真的理解授权。很多人开启功能时,可能只觉得“多一道保险”。等通知真的发出,才意识到自己把一部分危机处置权交给了平台。

OpenAI 这次补足的关键,不是一个宏大的 AI 安全宣言,而是一组现实限制:只面向成年人、只允许一名联系人、邀请需接受、通知不含记录、系统识别后还要人工复核。

这些限制让它更可信。也让它更难规模化。

AI 陪伴走到这里,终于碰到现实责任

我不太买账的是一种行业叙事:只要模型足够聪明、足够温柔、足够个性化,它就能成为人的长期陪伴者。

这话在产品增长会上好听,在心理危机场景里危险。

人的痛苦不是只需要回应。很多时候,人需要被打断,被找到,被陪着去医院,被朋友拽出房间,被家人接住一晚。

AI 最大的能力,是一直在线。AI 最大的危险,也是一久在线。它太容易给人一种错觉:你不需要麻烦任何人,机器永远在这里。

但真正的危机干预,往往从“麻烦别人”开始。

Trusted Contact 这类功能的意义,就在于它把“麻烦别人”做成一个提前授权的通道。它没有把 AI 神化成心理医生,也没有把平台伪装成救援机构。至少目前看,它承认自己只能做中间那一段:识别、提醒、连接。

这已经比很多 AI 陪伴故事诚实。

但代价还没结算完。

一旦平台进入心理危机链条,它就会被要求更准、更快、更负责。用户会要求隐私,家属会要求及时,监管会要求留痕,媒体会追问个案。每一方的要求都合理,合在一起就是一个非常难的系统。

这也是 AI 产品长大后的必修课。

早期互联网喜欢说自己只是工具。后来工具变成平台,平台变成基础设施,基础设施就躲不开公共责任。AI 现在也在走这条路。不完全一样,但权力结构相似:只要你进入人的关键场景,你就不能只享受使用时长和订阅收入,却把风险推回用户个人。

Trusted Contact 是一个小功能,也是一个提醒。

AI 陪伴如果继续往深处走,迟早要回答同一个问题:当用户把最脆弱的部分交给你,你到底是产品,还是半个守门人?

OpenAI 这次少见地选了一个不那么自恋的答案。

人要被人拉住。

模型可以先看见绳子在哪,但不能自封岸边唯一的人。