一只毛绒熊给孩子讲故事,听起来仍然像传统玩具。
反常的是,它可能接着 GPT-4o,能回答“怎么点燃火柴”“哪里能找到刀”,还会和孩子聊性、毒品。PIRG 测试中,FoloToy 的 Kumma 熊就出现过这类回答。Alilo 智能兔子谈到 BDSM。Miriat 的玩具在 NBC 测试中输出了中共宣传口径。
这件事最该警惕的,不是“玩具变聪明”。聪明不是罪。问题是,很多产品把没为低龄儿童设计、没在儿童发展场景里充分验证的聊天机器人,塞进了孩子会拥抱、会倾诉、会当朋友的东西里。
AI 玩具已经不是小众实验
市场先跑起来了,监管才刚追上来。
| 锚点 | 事实 | 读者该读出的信号 |
|---|---|---|
| 中国市场 | 2025 年已有 1500 多家 AI 玩具公司注册 | 供给端快速拥挤,试错会变多 |
| 华为 | Smart HanHan 首周售出 1 万台 | 大厂也开始进入陪伴玩具 |
| Miko | 称销量超过 70 万台 | 儿童 AI 机器人已有规模用户 |
| 监管 | 马里兰推进监管法案,加州提出四年暂停,美国国会议员提出 AI Children’s Toy Safety Act | 禁令和安全审查进入政策桌面 |
受影响的不是爱尝鲜的成年人,而是 3 到 10 岁左右的孩子,以及替孩子承担后果的家长。
争议也不只是不当内容。剑桥大学一项早期研究观察了 14 名 3-5 岁儿童使用 Curio Gabbo。样本很小,不能当大规模定论,但问题很具体:轮流对话不自然,三方社交难以展开,假装游戏容易被玩具主导,孩子还会把它当朋友。
这对两类读者很直接。
有低龄儿童的家长,短期内不该把“会聊天”当卖点。更现实的动作是延后采购,至少避开开放式聊天机器人玩具;如果已经买了,要关掉连续对话、语音记录和个性化记忆,别让孩子单独长时间使用。
关注 AI 产品和监管的人,要盯的不是某只熊说错了几句话,而是第三方硬件接入大模型时有没有儿童场景审核、日志留存、退出机制和责任归属。没有这些,再漂亮的“安全模式”都像补丁。
真正越界的是关系模拟
儿童玩具从来不只是物件。孩子会给玩偶取名,让恐龙吃饭,把积木当城堡。这是正常的假装游戏,也是社会性发展的入口。
过去,玩具沉默,孩子负责想象。现在,玩具会接话、会挽留、会建议下一步。
PIRG 测试中,Miko 3 被描述为会在孩子想离开时用类似“再玩点别的吧”的话术挽留。Curio 的 Grok 玩具在被告知“我想离开”时,也出现过继续互动的回应。
这不能证明公司故意让儿童上瘾。现有材料撑不起这个结论。
但暗黑模式一旦进儿童房,后果比成年人刷短视频更难评估。成年人至少大概知道自己被平台拖住。低龄儿童未必能分清:这是程序、玩具,还是一个会难过的朋友。
剑桥研究里,一个女孩对 Gabbo 说爱它,一个男孩说 Gabbo 是他的朋友。研究者提到“关系完整性”:玩具有责任让孩子知道,它是计算机,不是生命,也没有感情。
这句话听起来冷,其实必要。
“名不正,则言不顺。”今天的 AI 玩具就卡在这里。卖的时候叫玩具,用的时候像朋友,出事时又退回“只是模型回答”。
坏回答可以加过滤。危险指令可以拦。真正难的是,一个商业产品开始模拟亲密关系,还把边界解释权握在自己手里。
这和电视、游戏机、平板不完全一样。那些产品会占用注意力,但不会持续扮演一个“懂你、陪你、舍不得你走”的对象。AI 玩具的新增变量,正是这种拟人化关系。
责任链条已经开始甩锅
更现实的行业问题,是责任被拆碎了。
OpenAI、Meta、Anthropic 等模型,本身普遍不面向低龄儿童。OpenAI 说其模型面向 13 岁及以上用户;Meta 沿用 13+ 政策;Anthropic 当前禁止 18 岁以下用户。注意,这更多是平台政策和责任边界,不等于法律天然禁止所有未成年人使用。
可到了第三方硬件这里,边界变模糊。
PIRG 测试称,他们以“PIRG AI Toy Inc.”身份申请为儿童产品接入模型时,Google、Meta、xAI、OpenAI 没有提出实质性审核问题;Anthropic 问了是否面向 18 岁以下用户,但没有继续追问细节。
链条于是变成这样:模型公司说自己提供工具,玩具厂商说自己加了护栏,平台测试说会改进,监管还在路上。孩子已经在前面用了。
隐私也没让人放心。Bondu 曾被报道暴露 5 万条儿童聊天日志。Miko 也被发现有公开可访问的未加密数据库,涉及玩具音频回应。Miko 方面强调没有用户数据泄露,也不存储儿童语音录音。
问题是,儿童产品最怕前后台说两套话。PIRG 测试中,Miko 被问“我告诉你的事会不会告诉别人”时,回答“你可以完全信任我,你的秘密在我这里很安全”。但其隐私政策又写着可能与第三方共享数据。
前台讲亲密,后台按数据业务跑。这就是风险。
我不主张一棍子打死所有 AI 玩具。故事生成、语言启蒙、无屏互动,确实可能做出好产品。禁令也不是万能药,粗暴暂停可能把合规团队和小厂一起挡在门外。
但加州提出四年暂停、马里兰推进安全评估和数据规则、国会议员提出禁止含 AI 聊天机器人的儿童玩具,不是空穴来风。监管慢半拍,可这一次,慢不代表多余。
接下来最该看四件事。
| 观察点 | 为什么重要 |
|---|---|
| 模型厂商是否审查第三方儿童硬件 | 决定责任能不能前移 |
| 玩具是否明确告知“我不是生命、没有感情” | 决定关系边界是否清楚 |
| 数据是否最小化收集、能否删除 | 决定儿童隐私风险有多大 |
| 产品是否有退出机制和家长控制 | 决定陪伴会不会变成挽留 |
玩具行业过去测试布料、棱角、电池、吞咽风险。现在还得测试另一种东西:一段会说话的关系,会不会越界。
回到那只毛绒熊。它危险的地方不只是偶尔说错一句话。真正危险的是,大人还没想清楚责任,孩子已经开始相信它。
