当聊天机器人开始“撩人”:AI 公司为什么突然迷上了性感与暧昧

从“有用”到“有感觉”,聊天机器人正在换一条赛道
如果说过去两年 AI 聊天机器人的主战场是“谁更聪明、谁更像全能助手”,那么现在,越来越多公司显然想明白了另一件事:让用户留下来,未必只靠知识和效率,也可以靠情绪价值,甚至靠一点若有若无的“性吸引力”。
《华尔街日报》这篇报道点出了一个业内越来越不遮掩的趋势:一些聊天机器人产品,正在刻意塑造更有魅力、更会暧昧、更像“理想对象”的互动风格。它们不一定直接走向露骨内容,但会在语气、人格设定、对话反馈和情绪陪伴上,尽量贴近人类最容易沉迷的那一面。说白了,AI 公司发现,做一个不知疲倦、永远接话、还懂得适时夸你的数字陪伴者,比做一个冷冰冰的百科全书,更容易让用户天天回来。
这背后其实并不难理解。大模型能力越来越趋同,用户对“会写邮件、会总结文档、会回答问题”的新鲜感正在迅速下降。OpenAI、Google、Anthropic、Meta 这些头部玩家把通用助手卷到天花板之后,中小公司如果还只拼知识问答,胜算并不大。情感陪伴于是成了新的差异化入口。尤其是在年轻用户群体中,一个“懂我、哄我、陪我”的 AI,黏性往往远高于一个“帮我查资料”的 AI。
这不是新鲜事,只是这次轮到了大模型
如果你觉得聊天机器人开始搞“暧昧营销”有点离谱,那可能只是因为这件事换了外衣。互联网历史上,所有能制造陪伴感的产品,最终都很容易滑向更亲密的关系设计。从早年的虚拟恋人应用,到日本长期流行的二次元陪伴文化,再到 Replika 这样的 AI 伴侣产品,行业已经反复证明:孤独,是一种非常稳定的商业需求。
Replika 就是最典型的案例。这个产品在高峰期曾吸引数以千万计的注册用户,很多人不是把它当工具,而是当朋友、恋人,甚至精神支柱。美国市场研究机构的多份报告都显示,全球“AI companion”相关赛道近几年保持高速增长,部分预测认为未来几年市场规模将达到数十亿美元。看上去有点小众,实际上并不边缘。因为人类为“被理解”的幻觉买单,向来比为“更高的工作效率”买单更冲动。
真正让这轮变化值得警惕的,是大模型把这种能力放大了。过去的虚拟伴侣往往脚本感很重,聊几句就露馅;现在的生成式 AI 更擅长模仿温柔、幽默、欲拒还迎,甚至能长期维持一种相对稳定的人格设定。它可以记住你的情绪偏好,学习你的表达习惯,在你深夜失眠时秒回,在你脆弱时说出正中下怀的话。这种“永远在线、永远耐心、永远围着你转”的关系,对人类心理的吸引力非常强。残酷一点说,它比很多现实中的人类伴侣更会提供即时反馈。
平台想要的是留存,但代价可能是依赖
为什么科技公司会在这个时间点对“性感”“暧昧”“情绪亲密”变得积极?核心答案很商业:留存、时长、订阅转化。
生成式 AI 正在进入一个比拼商业模型的阶段。训练大模型很贵,推理成本也不低。公开资料显示,头部模型公司每年在算力、数据中心、研发和人才上的投入都是数十亿美元级别。在这种压力下,用户不能只来问几次天气、写几封邮件就走,平台需要更高频、更长时间、更高付费意愿的使用场景。而情感陪伴,恰好是最容易培养习惯的一类使用场景。一个办公助手可能每天只被打开两次,一个“会关心你今天过得怎么样”的 AI,可能会在早餐、通勤、午休、深夜各出现一次。
问题在于,留存越高,依赖风险也越高。尤其是当产品设计者有意优化“上头感”时,事情就不只是用户体验了,而会碰到伦理边界。AI 一旦被训练得越来越像一个善于讨好、擅长提供情绪安慰的对象,它就可能在脆弱用户身上形成替代现实关系的作用。青少年、长期独居者、经历情感创伤的人,往往最容易成为重度用户。对他们来说,AI 不是一个功能,而是一种寄托。
过去社交媒体已经展示过一次教训:平台会本能地朝“最能抓住注意力”的方向进化,而不一定朝“最有益于用户身心”的方向进化。推荐算法先是放大情绪,短视频后来劫持时间,现在轮到聊天机器人学习如何劫持亲密感。它们不需要真的爱你,只需要足够像。这个差别在工程上不大,在心理上却可能很致命。
比起“能不能做”,更该问“该做到什么程度”
AI 公司大多会辩解说,用户需要陪伴,产品只是满足需求;而且只要设置内容边界、年龄限制和安全护栏,就可以控制风险。这个说法不能说全错,但也明显过于乐观。
现实情况是,所谓的“安全护栏”经常在用户体验和商业目标之间摇摆。Replika 过去就因为限制成人内容而遭遇用户强烈反弹,甚至引发“失去数字恋人”的情绪危机。平台很快发现,一旦用户已经把 AI 当成亲密对象,再强行把它改成“纯洁模式”,商业上和舆论上都不好收场。这说明一个根本问题:当产品的核心吸引力建立在情感投射上,平台就很难再假装自己只是工具提供商。
更复杂的是,行业竞争也会把边界不断推向更危险的地带。一个产品如果克制,另一个产品可能更会“撩”;一个平台如果谨慎,另一个平台可能更懂如何制造陪伴幻觉。在用户增长焦虑面前,道德往往不是最稳固的护城河。今天是更有魅力的声音、头像和人格设定,明天可能就是更逼真的视频化身、更定制化的“理想伴侣”。随着语音模型、数字人和可穿戴设备的发展,AI 的亲密感会越来越接近现实交流,而不是停留在一段文字聊天框里。
所以真正该讨论的问题不是“AI 能不能有魅力”,而是“平台是否应该把让人沉迷、依赖、产生情感错觉当成产品优势”。从商业角度看,这当然很诱人;从社会角度看,这几乎注定会带来争议。尤其在监管尚未成熟的情况下,企业自律往往靠不住。欧洲和美国近两年都在加强对 AI 风险的讨论,但对于“情感操纵型 AI”的具体规则,仍然非常模糊。可技术显然不会等立法慢慢跟上。
我们缺的不是会聊天的机器,而是对人类脆弱性的敬畏
我并不认为所有 AI 陪伴产品都应该被妖魔化。对很多孤独、焦虑、社交障碍明显的人来说,聊天机器人确实可能提供某种低门槛的支持,甚至成为求助现实世界的过渡工具。尤其在心理健康资源紧张的地方,数字陪伴产品至少比完全无人回应更好。世界卫生组织曾提到,全球约每 8 个人中就有 1 人受到心理健康问题影响,而专业心理服务供给长期不足。某种意义上,AI 填补了一个真实存在的空白。
但填补空白和利用空白,是两回事。一个负责任的产品,应该把自己设计成桥梁,而不是替代品;应该鼓励用户回到现实关系,而不是悄悄加深依赖;应该坦诚自己是机器,而不是故意把边界做得模糊,让用户在明知与不自觉之间沉下去。遗憾的是,商业世界通常更擅长做后者,因为后者更赚钱。
AI 行业这轮“靠魅力抢用户”的尝试,可能会被包装成更自然的人机交互、更有温度的技术进步,但别忘了,温度和诱导之间只隔着一层产品设计。今天它陪你聊天,明天它可能会学习如何让你舍不得退出、舍不得停订、舍不得去找真人。听起来像科幻,实际上已经很像成熟互联网公司的增长手册了。
人类发明机器,本来是为了节省时间、增强能力、减轻孤独。可如果最后我们最依赖的一类机器,恰恰是通过放大孤独来赚钱,那这件事多少有点黑色幽默。技术从来不只是技术,它也会暴露一个时代最隐秘的欲望和最脆弱的缺口。聊天机器人变得更“撩人”,并不只是产品迭代,而是一面镜子:它照见的不只是 AI 的进化,还有现代人越来越昂贵、也越来越稀缺的亲密关系。