当“无限下滑”走进法庭:Meta 和 YouTube 为少女成瘾案付出代价

300 万美元不算天价,但它像一记重锤
美国洛杉矶的一场判决,把 Meta 和 YouTube 再次推上了“儿童社交媒体安全”的审判席。陪审团认定,两家公司要向一名如今 20 岁的年轻女性赔偿 300 万美元,因为她在还是孩子时,就被这些应用一步步“钩”住,最终发展出严重的心理问题。按照裁定,Meta 承担 70%,Google 旗下的 YouTube 承担 30%。
如果只看数字,300 万美元对 Meta 和 Google 这种现金流庞大的科技巨头来说,几乎谈不上伤筋动骨。Meta 一天的广告收入,可能就远远不止这个数。可司法世界里的很多变化,从来不是靠单笔赔偿金额定义的,而是靠“定性”推动的。陪审团这次给出的信号很明确:自动播放、无限滚动、算法推荐、通知轰炸,这些被行业包装成“提升体验”的设计,今后很可能不再只是产品经理的增长工具,而是法律意义上的风险源。
这也是为什么,这起案件虽然金额不夸张,却让硅谷有点坐不住。因为它不是孤例,而是一个风向标案件。它背后排着的,是成千上万起类似诉讼。今天判的是一个女孩的故事,明天可能就是整个平台商业模式的拷问。
法庭争的不是“她有没有脆弱”,而是“平台有没有故意”
这起案子最刺耳的地方,不只是原告讲述自己陷入社交平台循环后的痛苦——严重的身体畸形认知、抑郁、甚至自杀念头——而是庭审中曝光的公司内部语言。陪审团看到了 Meta 内部文件,员工公开讨论 Instagram 的“上瘾性”,甚至有人半开玩笑半认真地说,“青少年即使想停也停不下来”,“IG 就像毒品”,还把社交平台比作“推销者”。
这一幕其实很像过去几十年烟草行业、阿片类药物行业经历过的历史瞬间:企业对外强调“产品本身没问题”,对内却精准研究人类的依赖机制。只不过今天的“药效”不是尼古丁,也不是止痛药,而是行为设计。红点提醒、短视频连播、越刷越懂你的推荐流,它们不会直接进入血液,却能稳稳占据注意力。
Meta 和 Google 在庭上当然没有轻易认输。它们的辩护方向也很典型:原告原本就有心理健康问题,平台只是她用来应对困境的工具,而不是伤害的根源。YouTube 甚至强调自己不是社交媒体,而是“负责任构建的流媒体平台”,并声称产品并非为了最大化使用时长而设计。
说实话,这种辩词并不陌生,也并不全无逻辑。人的心理困境从来不是由一个 App 单独制造出来的,家庭环境、成长经历、同伴关系都可能是深层原因。可问题在于,当平台明知未成年人更容易被奖励机制、社交反馈和推荐算法牵着走,还持续优化“留存”和“时长”,那它就很难再把自己描述成一个无辜的工具箱。锤子没有责任,但会主动追着你跑的锤子,就另当别论了。
“成瘾式设计”终于被摆到阳光下
过去十多年,社交平台最成功的一课,就是把“让用户待得更久”伪装成“让产品更好用”。无限滚动就是一个经典例子:没有终点,没有翻页,手指轻轻一划,新的内容立刻续上。自动播放更像一位过分热情的店员,你刚想离开,它已经替你把下一段视频打开了。至于算法推荐,它的厉害之处在于,它不只是知道你喜欢什么,还知道你在什么时候最脆弱、最无聊、最需要被分心。
这些设计并非天然邪恶。坦白说,推荐算法也确实帮很多用户更高效地找到感兴趣的内容,短视频和社交平台也给很多孩子提供了表达和连接的空间。问题出在边界:当商业模式建立在广告和时长之上,平台几乎注定会沿着“更强刺激、更深沉浸、更少退出点”一路狂奔。未成年人正是这套机制里最容易被卷进去的人。
这一轮针对社交媒体的诉讼潮,某种程度上是在补过去监管的课。美国多州、学区和家庭过去几年不断起诉 Meta、TikTok、Snap、Google,核心争议都很相似:平台是否明知风险,却继续放任,甚至利用这些风险获利。就在这次判决前后,Meta 还在另一宗与儿童剥削防范不力相关的案件中遭遇更大金额的惩罚。把这些案件连在一起看,你会发现一个清晰趋势:法院、地方政府和公众,已经不再满足于听平台说“我们很重视安全”。他们想看证据,想看产品改动,想看真正会伤害增长指标的那种改变。
这件事为什么在今天尤其重要
如果把时间拨回 2012 年,社交媒体还是“连接世界”的明星产业;到 2026 年,它越来越像一个公共健康议题。家长担心孩子睡眠被打乱,老师抱怨学生注意力被切碎,心理学家讨论青少年的焦虑、身体形象和社交比较,监管者则开始琢磨:一个被数十亿人使用、又能精准操纵行为的产品,到底应该按什么标准被约束?
这也是这起判决的真正分量所在。它不是简单地说“社交媒体有害”,而是把矛头对准了可被识别、可被量化、也可被修改的设计机制。换句话说,社会开始把平台伤害从模糊的文化焦虑,推进到具体的产品责任。以前大家骂的是“孩子老刷手机”;现在问的是“为什么这个产品被设计成让孩子停不下来”。这两个问题看似接近,法律含义却完全不同。
接下来最值得关注的,是惩罚性赔偿,以及这起示范案件会不会影响后续数千起同类诉讼。如果法院持续认定这些设计与未成年人伤害之间存在法律上的因果关系,平台就会面临一个很尴尬的选择:是保住高粘性的增长引擎,还是主动拆掉一部分最有效、也最危险的机制。
更长远地看,行业或许会走向几种可能的变化。面向未成年人的默认关闭自动播放、更严格的夜间提醒限制、按年龄分层的推荐系统、清晰可见的“停止点”设计,甚至对通知频率进行约束,都可能成为下一步改革方向。欧洲的《数字服务法》、英国的儿童网络安全规则,以及美国州级立法,已经在不同程度上推动这种思路。技术公司一向擅长做 AB 测试,也许接下来它们要学着测试另一件事:少一点上瘾设计,用户会不会反而过得更健康。
平台不是监护人,但也不能假装自己只是水电煤
关于这类案件,始终存在一个争议:平台应该为用户,尤其是未成年人,承担多大责任?这确实是个棘手问题。把所有青少年心理问题都归咎于社交媒体,既不公平,也不准确。家庭、学校、医疗资源、经济压力,都是更庞大也更难解决的现实。技术平台不该成为唯一的替罪羊。
可反过来说,它们也不能继续躲在“中立工具”的说法后面。一个会持续采集行为数据、训练推荐模型、优化触达节奏、追踪留存曲线的系统,和一把静静躺在桌上的剪刀,不是一回事。尤其当用户是儿童时,所谓“自由选择”的前提本来就更脆弱。孩子不是缩小版的成年人,他们的自控力、风险判断和情绪调节能力都还在发育中,而平台对此心知肚明。
我更愿意把这起判决看成一个迟来的提醒:科技行业过去太习惯用“创新”掩盖“诱导”,用“参与度”美化“依赖”,用“个性化”包装“操控”。现在,法庭终于开始追问那些曾被产品术语粉饰过的问题。说得直白一点,硅谷很擅长计算点击率,但社会也终于开始计算代价。
Google 已表示会上诉,Meta 也在评估法律选项。这场拉锯不会很快结束。可无论二审结果如何,有一点已经很难回到从前:儿童和青少年在数字世界里受到的伤害,不再只是家长群里的焦虑,也不再只是学者论文里的图表,它正在变成能让巨头真金白银付账的现实。