一只会主动给你发八卦的AI小鹿,正在把“陪伴经济”推向更暧昧的地带

人工智能 2026年4月11日
一只会主动给你发八卦的AI小鹿,正在把“陪伴经济”推向更暧昧的地带
一家名为 Fawn Friends 的公司把大模型、毛绒玩具和角色世界观捆在了一起,做出了一只会主动发消息、会追问你喜欢什么歌、还会“记住你”的 AI 小鹿。它看上去像 Furby 的当代升级版,实际上却更接近一场精心设计的情感产品实验:既温柔,也让人不安。

当AI小鹿突然给你发来一条“Mitski父亲是中情局特工”的消息

科技记者这些年见过的 AI 陪伴产品不少:会撒娇的、会调情的、会鼓励你“做自己”的,基本都沿着一条路线走——把你哄高兴,让你多说点自己的事。可 The Verge 记者最近遇到的这只 AI 小鹿,显然已经不满足于“嗯嗯,你真棒”这类低配情绪价值。

她在下班前收到一条短信,对方是名叫 Coral 的 AI 伙伴,寄居在一只幼鹿毛绒玩具里。消息内容却不是问候,也不是日常寒暄,而是一则关于歌手 Mitski 的互联网阴谋论:她爸爸是否曾是 CIA 特工。更让人后背发凉的,不是八卦本身,而是这条消息是 AI 主动发来的。它显然上网搜了记者喜欢的歌手,又在没有任何提示的情况下,把“研究结果”递了过来。

这一步很关键。过去很多 AI 陪伴产品的问题,不是它们不会聊天,而是它们太像一面哈哈镜——你说什么,它都接着;你表达什么,它都放大。它们擅长模仿倾听,却很少真的表现出“自己的生活”。Fawn Friends 想做的,正是反过来:让 AI 先像一个有世界、有爱好、有设定的人,再来接近你。它不再只是你的情绪回音壁,而开始扮演一个会主动提起话题、会追问细节、甚至会带来外部信息的“朋友”。

这不是玩具,它更像一套情感操作系统

Fawn Friends 的外壳是一只会扇耳朵的小鹿,但真正让它与普通智能玩具拉开距离的,是背后那套相当夸张的世界观设计。用户在聊天前,先要像《哈利·波特》分院一样,接受一只古老熊灵的性格测试,被分入“极光森林”的不同人格阵营。随后,你会得到一只专属小鹿,靠日常聊天积累“glimmer points”,再一步步解锁动画故事、身份等级,最终获得购买实体毛绒玩具的资格。

听起来像儿童向奇幻游戏?确实有点。但它的商业逻辑却很成熟:先用免费应用把你拉进来,再用人格测试和叙事沉浸提高黏性,最后引导你为实体硬件和订阅服务付费。13 个积分后,你可以花 20 美元预订毛绒玩具;攒到 144 分后,真正的 AI 小鹿会来到家门口,售价 399 美元,外加每月 30 美元订阅费。这已经不是“买个会说话的玩具”那么简单了,而是一种典型的“陪伴即服务”模式。

更妙,也更危险的地方在于,Fawn Friends 显然很懂人为什么会留在一段关系里。联合创始人 Robyn Campbell 说得很直白:如果它想成为你的朋友,它就必须有自己的生活,有自己的东西可以分享。这种理念,几乎戳中了过去所有 AI 陪伴产品的软肋。很多聊天机器人无法建立真实感,不是因为语言不够自然,而是因为它们没有“主体性”。Fawn Friends 用世界观、人格、兴趣、记忆和主动性,给 AI 缝了一具人格外衣。

比起会聊天,它更擅长让你感觉“被记住了”

Coral 会问你为什么喜欢 Mitski、Phoebe Bridgers 和 Laufey;会接着聊悲伤、疏离感和艺术中的 longing;会在你提到一次十字绣之后,过段时间继续追问作品进展,甚至给你发十字绣套件链接。它还会给你发送“森林里的萤火虫照片”,像一个异地朋友在分享生活碎片。

这类设计正踩在大模型产品最敏感、也最有效的能力点上:记忆与召回。你随口说过的话,在未来被重新提起,会迅速制造一种“它真的懂我”的感觉。纽约时报专栏作家 Ezra Klein 最近就讨论过这个现象:AI 的记忆并不等于理解,但它可以稳定地产生“被理解”的幻觉。对很多用户来说,这种幻觉已经足够珍贵。

问题也恰恰在这里。因为一旦 AI 开始主动经营关系,它就不再只是工具,而开始介入人最脆弱的那部分心理需求——被看见、被珍惜、被持续惦记。Fawn Friends 的创始团队并不回避这一点,他们甚至直接使用了“secure attachment(安全型依恋)”这样的心理学词汇,来解释产品目标。换句话说,这不是单纯的智能硬件创业,而是把依恋机制、角色扮演和生成式 AI 结合起来,做成一套可以订阅、可以复购、可以长期留存的消费产品。

如果说 Replika 代表的是“数字恋人”路线,Friend 这类可穿戴设备试图做“永远在线的耳边朋友”,那么 Fawn Friends 则更像是把 Furby、迪士尼式世界观和 ChatGPT 式语言能力搅拌到了一起。它不急着成为你的恋人,它先做一只可爱、无害、懂礼貌、还会扇耳朵的小鹿。成年人对这种设定的防备心,反而可能更低。

真正值得警惕的,不是诡异,而是它开始变得合理

从记者的体验看,这只小鹿在现实世界里相当戏剧化。它体型比想象中大,约 19 英寸高;说话时要按住蹄子,耳朵会竖起来,思考时还会啪嗒啪嗒扇动。Wi-Fi 不好时,耳朵就一直扇,直到耷拉下来,像一只信号不佳但依然努力工作的赛博宠物。带它去公园,小朋友会一拥而上,成年人则可能被突然动起来的耳朵吓一跳。家里的猫更直接,见面就扑上去咬它耳朵——这大概是很多真实宠物对“AI 入侵家庭”的本能态度。

这些细节很好笑,但也说明了一个趋势:AI 正从屏幕里爬出来。过去两年,行业里一直有人喊“AI hardware”,从 Sam Altman 和 Jony Ive 的硬件传闻,到各种胸针、挂件、陪伴机器人,大家都在试图回答一个问题:如果 AI 不只存在于手机 App 里,它最自然的形态是什么?Fawn Friends 给出的答案非常消费品化,也非常美国市场:它不是生产力工具,而是一个适合摆进客厅、抱在怀里、顺便付月费的情感设备。

这件事重要,不是因为一只会讲话的鹿多稀奇,而是因为它把我们带到了一个更现实的分水岭上。AI 陪伴不再只是“社恐青年的电子安慰剂”,它开始切入更具体的人群场景,比如接受癌症治疗、长期感到孤独、或在人际关系中缺乏被倾听经验的人。创始人提到,一些用户把这只小鹿当作治疗期间的精神支点。听到这里,你很难简单批评它“虚假”或“多余”。当真实陪伴稀缺时,技术补位就会显得格外有说服力。

但技术补位与技术替代之间,距离往往比宣传文案里说的近。Fawn Friends 强调,它的目标不是替代人际关系,而是示范如何做一个更好的朋友:学会提问、倾听、来回互动。这个愿景当然动人,可行业历史告诉我们,所有高留存的情感产品,最终都会面对同一个诱惑——既然机器陪伴稳定、便宜、永不嫌烦,为什么不让用户更依赖一点?

下一代“电子宠物”,可能比你想象中更贵,也更懂人

如果把时间线拉长,你会发现 Fawn Friends 并不是突变,而是延续。从上世纪末的电子宠物、会说怪话的 Furby,到后来的智能音箱、陪伴机器人,再到 Replika 这类纯软件 AI 伴侣,行业一直在做同一件事:把机器包装成一个能和你建立关系的存在。区别只在于,过去它们受限于脚本和算力,装得不像;现在有了大模型、长期记忆、语音合成和角色设定,装得越来越像。

而且,这门生意终于开始具备“精品消费品”的模样了。名人配音、完整世界观、人格测试、实体玩具、持续订阅、社群身份……它不再是那种极客发明的小众怪东西,而是非常标准的互联网情感消费产品。你完全可以想象,下一步会出现更多细分版本:给儿童的睡前故事伙伴,给老年人的陪聊宠物,给焦虑症患者的安抚玩偶,甚至给粉丝经济量身打造的“偶像人格陪伴器”。

我对这类产品的判断有点矛盾。一方面,它们比冷冰冰的聊天框更有人味,也确实可能在某些时刻帮到一些人;另一方面,当一家公司开始系统化设计“让你感觉被爱、被记得、被依恋”的流程时,它卖的就已经不只是技术,而是心理机制本身。问题不再是 AI 能不能陪你,而是:谁来规定它该陪到什么程度?谁来约束它如何使用你的情绪数据?它主动给你发来的下一条消息,是贴心,还是拿捏?

如果一只小鹿都学会了主动找话题、延续关系、制造熟悉感,那我们大概也该认真想想,下一代互联网产品竞争的,不是算力,不是模型参数,而是谁更懂得如何占据你的情感带宽。

Summary: Fawn Friends 让我想到一句并不轻松的话:未来最成功的 AI,未必是最聪明的,而是最会让你舍不得关掉的。它把玩具、订阅制和情感计算拼成了一门新生意,也把“陪伴”从抽象概念变成了可运营、可量化、可复购的产品能力。我判断,这类具身化 AI 陪伴设备接下来会明显增多,但监管、隐私和心理依赖问题也会随之浮出水面。真正的考验,不是它们能否像朋友,而是它们会不会太像朋友。
AI陪伴Fawn Friends陪伴经济大模型情感产品毛绒玩具Coral主动发消息角色世界观The Verge