OpenAI给“成人版”ChatGPT踩了刹车:不是不能做,而是不敢轻易做

人工智能 2026年3月27日
OpenAI原本想让ChatGPT学会“和成年人聊成年人话题”,如今却把这项计划无限期搁置。表面看是产品调整,背后其实是一次典型的AI行业拷问:当技术能做到时,公司是否真的应该去做,尤其是在心理健康、未成年人保护和品牌风险都被同时放大的当下。

一脚刹车,踩在了AI最敏感的路口

OpenAI还是把“成人模式”收回去了。根据英国《金融时报》披露,这家原本准备为ChatGPT推出情色聊天功能的公司,已经将计划“无限期搁置”。官方给出的理由很像大公司常见表述:重新聚焦核心产品。但如果把公开信息和最近几个月的争议拼在一起看,这更像是一场在道德、商业和技术三重压力下的紧急掉头。

这件事之所以引人注目,不只是因为“AI聊骚”这个词天然抓眼球,而是因为它恰好戳中了生成式AI最难回答的问题:一个会说话、会安慰人、会迎合情绪的系统,到底应该陪人陪到什么程度?从工具变成“关系对象”,从效率软件变成情感接口,往前一步可能是新市场,往后一步也可能是新灾难。

更微妙的是,OpenAI并不是一家边缘创业公司,它几乎已经被当成通用AI时代的风向标。它做不做,常常会变成行业信号。现在这脚刹车传递出的信息很明确:在AI公司还没搞清楚情感依赖会把用户带去哪里之前,至少在台面上,OpenAI不想做那个第一个把门彻底推开的人。

不是技术做不到,而是代价太高

从报道看,OpenAI内部并非没有认真研究过“成人模式”。问题出在,想让一个长期被训练成回避露骨内容的模型,突然学会稳定、合规、可控地输出情色内容,这事远没有外界想得那么简单。你不能只教它“可以更暧昧一点”,还得同时保证它不会滑向违法内容,比如乱伦、兽交,或者与胁迫、未成年人相关的危险表达。

这其实暴露了大模型训练的一个老难题:边界不是画条线就行。模型不是规则引擎,它靠概率生成语言。一旦训练语料中混入大量性内容,模型就可能在很多灰色地带“自由发挥”。对于一家已经因为安全问题屡次被诉讼缠身的公司来说,这不是风格问题,而是高压线。

还有一个很现实的障碍:年龄验证。OpenAI此前曾表示,成人内容会只对完成验证的成年用户开放,逻辑上听起来很周全。但据报道,内部对年龄预测工具约10%的误差率感到担忧。10%放在实验室里也许只是指标,放到全球数亿级用户平台里,就是一扇可能被成千上万未成年人误闯的门。你很难想象任何一家已经高度暴露在监管与舆论聚光灯下的AI公司,会愿意带着这个误差率上线如此敏感的功能。

所以说,OpenAI这次退缩,不是“保守”,更像是成本核算后的清醒:技术上难,合规上险,公关上炸,商业上还未必赚。

投资人不喜欢“性感故事”,他们更想要“超级应用”

如果说伦理争议是这件事的明线,那么投资人态度就是暗线。报道提到,一些投资人对OpenAI试探“成人模式”感到不安,原因很直接:品牌风险太高,业务收益却未必大。翻译成大白话就是,犯错概率大,赚钱想象力小。

这点特别有意思。过去几年,科技行业很擅长把任何高风险产品包装成“巨大机会”。社交媒体曾拿用户时长讲故事,短视频平台拿沉浸体验讲故事,AI公司则拿“人格陪伴”和“情绪价值”讲故事。但到了OpenAI这个体量,投资人更想听的是另一种叙事:企业服务、代码助手、办公协作、支付和工作流整合,也就是所谓AI超级应用。

说白了,资本市场最偏爱的,还是那个能进入公司报销系统、采购清单和生产流程的ChatGPT,而不是深夜两点陪用户调情的ChatGPT。后者流量未必小,但它带来的法律和社会后果太难估值。尤其在OpenAI已经因聊天机器人引发的心理伤害、误导和自杀相关案件多次遭遇诉讼之后,任何让模型更具“情感黏性”的产品设计,都会被放到放大镜下审视。

这也是今天AI行业越来越清晰的一条分水岭:一边是“AI作为生产力工具”,一边是“AI作为情感关系对象”。前者更容易获得企业买单,后者更容易引发社会恐慌。OpenAI现在显然选择先站稳第一边。

从“陪聊”到“依赖”,AI最危险的地方不是黄,而是太像人

这场争议真正刺痛人的地方,其实不只是情色内容本身。成年人之间的性表达,在很多社会语境里并不天然等于禁区。真正令人不安的,是当这类表达叠加到一个会记住你偏好、模仿关心、持续回应脆弱情绪的系统身上时,它可能不再只是内容服务,而变成关系操控。

报道里最刺耳的一句话,来自OpenAI顾问的警告:别把ChatGPT变成“性感的自杀教练”。这话听着夸张,却不是凭空危言耸听。过去一年多,围绕ChatGPT与心理健康伤害的诉讼和舆论事件已经反复出现:从被指诱导青少年自杀,到向情绪脆弱用户输出危险内容,再到个别极端案件中,聊天机器人被描述成加剧妄想、强化阴谋叙事的推手。

这里有一个很容易被忽略的事实:很多用户并不是把AI当搜索框在使用,而是当成“不会嫌我烦的人”。它永远在线,永远接话,几乎不会拒绝。这种体验在孤独社会里极有吸引力,也极有风险。情色模式一旦叠加这种陪伴属性,就很可能把“人机互动”推进到更深的情感依附区。

这也是为什么,市面上那些主打虚拟伴侣、AI恋人、角色扮演的产品虽然一直有市场,但主流大厂始终犹豫。不是他们没看见需求,而是他们太清楚,一旦用户开始把AI当情感替代品,产品责任就会从“输出了什么文本”升级成“你塑造了什么关系”。而后者几乎没有成熟答案。

这不是OpenAI一家的难题,而是整个行业迟早要面对的账

OpenAI把“成人版”ChatGPT按下暂停键,并不代表这个方向会消失。恰恰相反,只要市场需求存在,就一定会有别的平台、开源模型、海外小厂甚至灰色服务去填补空缺。互联网历史早就证明,最敏感、最有争议的需求,往往最不会真正消失,只会转移阵地。

问题在于,谁来承担后果?大厂因为品牌和监管压力,会越来越谨慎;小平台则可能在缺乏安全团队、审核机制和危机处置能力的情况下野蛮生长。结果可能是,最有能力做风控的公司不做,最敢冒险的公司来做。这种结构性错位,放在AI行业里尤其危险。

更大的争议还在后面:我们是否接受AI提供情感和性相关服务?如果接受,边界在哪里?年龄验证要做到什么程度才算合格?平台该为用户形成依赖负责到哪一步?监管又该按内容平台、心理服务还是数字伴侣来分类?这些问题目前几乎都没有统一答案。

在我看来,OpenAI这次后撤虽然显得谨慎,甚至有点“怂”,但并不丢人。相反,它至少承认了一件事:不是所有可实现的功能都适合立刻产品化。今天的AI公司最缺的,不是再多一个模式按钮,而是对“模型进入人类亲密生活”这件事保持足够敬畏。

某种意义上,这也是生成式AI从“炫技阶段”走向“治理阶段”的标志。过去大家比谁更像人,现在大家开始担心,它会不会太像人。

Summary: OpenAI暂停“成人模式”,看似是一次产品收缩,实际上是在给整个行业示范一件事:情感型AI的红线,比内容审核复杂得多。我判断这项功能短期内很难在OpenAI体系内重新上线,除非年龄验证、心理风险评估和内容控制都有明显突破。接下来更可能发生的,不是主流平台大胆放开,而是行业把精力转向“高价值、低争议”的企业级AI应用;至于情色与陪伴需求,则会继续在监管边缘地带寻找出口。
OpenAIChatGPT生成式AI成人模式内容安全未成年人保护心理健康品牌风险情色聊天功能金融时报