一份2019年的Meta内部机密文件,被洛杉矶陪审团纳入审理。文件里的意思很刺眼:青少年即使想停,也很难从Instagram上离开。

2026年3月25日,洛杉矶陪审团认定Meta和YouTube需要为成瘾性产品设计承担责任。这个裁定真正有分量的地方,不是又一次证明“孩子爱刷手机”,而是把责任从内容本身,推到了产品机制。

平台最喜欢讲“用户选择”。法庭这次问得更硬:如果选择被推荐、通知、无限滚动和反馈奖励层层推着走,那还算不算真正的选择?

判决速读:靶心从内容移到机制

这次信息可以压成一张表。

问题目前可确认的信息
关键文件Meta 2019年内部机密文件,称青少年想停也难以离开Instagram
关键裁定2026年3月25日,洛杉矶陪审团认定Meta和YouTube需为成瘾性产品设计担责
受影响对象青少年用户、家长、平台公司、产品设计团队、监管部门
争议焦点平台是在提供选择,还是用推荐、通知、无限滚动等奖励机制诱导非自愿行为
目前不清楚材料未给出判赔金额、具体案名、原告人数、后续执行细节或上诉安排

这里要防止两个误读。

它不是说所有社交媒体都违法。也不是说所有推荐算法都有罪。更不能把问题简化成“内容低俗”或“青少年自控力差”。

真正进入审判视野的,是产品里的奖励回路:红点、推送、连播、点赞反馈、刷新后的不确定结果、滑不到底的信息流。

这些东西看起来是交互细节。放进广告和增长模型里,就是停留时长、留存率、互动率和广告库存。

对平台治理读者来说,这个裁定至少说明一件事:监管正在从“看一条内容是否违规”,转向“看一套机制是否系统性诱导行为”。

对家长来说,它也提供了一个更准确的判断框架。问题不只是孩子看了什么,而是产品怎样让孩子很难停下。

真正被审的是“奖励回路”

平台当然会说,用户可以退出,可以关通知,可以设置使用时长。

这句话不能说全错。但它只讲了出口,没有讲路是怎么被铺的。

如果一个系统长期用数据、A/B测试和心理反馈去提高停留时长,再把退出责任全部交给青少年和家长,这个责任分配就很轻巧。平台拿走增长收益,用户承担自控成本。

问题不在产品好不好玩。问题在它是否把人的弱点做成收益模型。

“天下熙熙,皆为利来。”注意力商业从来不新鲜。报纸抢头版,电视抢黄金档,互联网抢点击。今天不同的是,平台可以实时测试每个人的反应,再把反馈闭环压到秒级。

这个历史类比不完全一样。报纸和电视没有今天这种个人级推荐能力。今天的平台更强,也更难用“我只是摆在那里”来解释责任。

我不太买账的一点,是把成瘾性设计都归因于个别产品经理的恶意。

更现实的情况是,组织激励会把人推向同一个方向:多留一分钟,多点一次,多刷一屏。一个团队可以没有坏人,但照样做出坏机制。

这对产品团队有很直接的影响。

面向未成年人的产品,不能再只写一句“用户可自行关闭”。更稳妥的做法,是重新检查默认设置:通知是否默认开启,连播是否默认开启,无限滚动是否提供真正停点,“不感兴趣”和“减少推荐”是否真的生效。

增长团队也要留痕。哪些实验会增加未成年人使用时长,哪些设计可能制造不可预测奖励,哪些指标被拿来评估产品成功,都可能从内部优化问题,变成外部审查问题。

家长能做的,也不是简单没收手机。

更有效的动作是看机制:关掉非必要通知,关闭自动播放,限制夜间使用,把“无限刷”的入口换成有明确终点的内容形态。使用时长工具有用,但别迷信。平台如果继续用奖励机制拉人回来,家庭规则只是第二道防线。

接下来该盯什么:边界、默认值、审计

这次裁定的后果,还不能被说得太满。

目前材料没有显示具体赔偿金额,也没有给出平台必须怎么改产品。它更像一个信号:成瘾性设计可以进入责任讨论,而不只是舆论批评。

接下来最该观察三件事。

观察点为什么重要对谁影响最大
责任边界怎么定如果只停留在个案裁定,影响有限;如果形成可引用的责任逻辑,平台设计会更谨慎平台公司、法律与合规团队
未成年人默认设置是否改变默认值比提示语更有力量。默认关闭通知、连播、无限滚动,成本会直接落到增长指标上青少年、家长、产品团队
是否出现机制审计只审内容不够。真正要看推荐、通知、奖励反馈是否诱导非自愿行为监管部门、平台治理研究者

监管也有自己的边界。

它不该变成逐条审批内容的内容警察。那样成本高,误伤大,也容易把问题带偏。

更合理的方向,是做激励审计:平台用了哪些机制提高停留,哪些机制针对未成年人默认关闭,用户表达“我不想看”“我想停下”之后,系统是否尊重这个信号。

这比喊“保护青少年”更难,也更有用。

因为真正的分水岭不在口号里,而在默认值里。默认推送还是默认安静,默认连播还是默认停止,默认继续喂内容还是尊重退出意愿,这些小开关才是平台权力的落点。

这件事也会逼产品行业重新定义一句老话:用户喜欢。

喜欢一个产品,和停不下来,不是一回事。前者创造价值,后者透支意志。过去增长叙事常把二者混在一起,甚至把“上瘾”当夸奖。现在,这个词开始带法律风险。

回到开头那份文件,最刺眼的并不是Meta知道青少年难以离开Instagram。

更刺眼的是,平台可能比用户自己更早知道:哪个按钮、哪个红点、哪条推荐,会把人带到哪里。

知道之后还继续把它做成增长机器,责任就不能只推给“用户选择”。