Meta把与新墨西哥州的未成年人安全诉讼推到了更硬的位置。公司在提交给法院的文件中称,如果州法院采纳总检察长Raúl Torrez要求的一系列禁令,Meta可能被迫让 Facebook、Instagram 和 WhatsApp 退出新墨西哥州。

这不是Meta已经撤出当地,也不是全美服务下架。真正重要的是,儿童安全监管正在从“平台应承担更多责任”的政治共识,进入技术可验证性、加密通信权利和地域化合规成本的正面冲突。

Meta用退出威胁反击州检方整改要求

这起争议有一个清晰背景:新墨西哥州此前在陪审团审判中赢得针对Meta的3.75亿美元裁决,指控Meta误导州内用户了解其产品安全性。胜诉后,州总检察长Raúl Torrez请求法院下令Meta对平台做大幅整改。

Meta的反击集中在两点:一是部分要求过于含糊,公司无法判断怎样才算合规;二是若要执行,可能需要为新墨西哥州开发一套专用版本。对一个跨州、跨国运行的社交网络来说,单州版本不是简单开关,而意味着登录、审核、加密、推荐和举报链路都要分区处理。

争议中的三类要求不能混为一谈:

要求州检方目标Meta的主要反驳关键难点
禁止未成年人使用端到端加密降低私密空间中的儿童安全风险可能破坏WhatsApp等产品的加密设计未成年人识别与加密权利冲突
实施年龄验证阻止未达年龄用户注册或使用拦截率难以精确证明需要可靠身份信号,且会牵涉隐私
检测99%新上传CSAM提高儿童性虐待材料发现率新CSAM总量未知,难以计算99%分母不可见,准确率证明困难

这里最值得盯的不是Meta说“做不到”本身。公司当然有维护自身产品架构和商业成本的动机。更关键的是,监管把一个道德上几乎无争议的目标,写成了需要数学证明和系统级改造的命令。

99%检测率暴露的是平台治理的证明难题

Meta点名反对“检测99%新CSAM”和“拒绝未成年账户达到一定准确率”等指标。它的说法是,要证明检测了99%的新CSAM,前提是知道全部新CSAM是什么;要证明拦住了多少未成年账户,也必须知道所有违规对象。这个逻辑未必能免除平台责任,但确实击中了内容审核的老问题:平台常能证明自己发现了什么,很难证明自己没有漏掉什么。

行业里通常处理已知CSAM,会依赖哈希匹配等技术,例如将已确认违法材料生成数字指纹,再与上传内容比对。但“新”CSAM意味着此前没有指纹库,识别更依赖机器学习、用户举报和人工审核。把目标定成99%,听上去清楚,落到法庭执行时反而可能变成一个无法审计的数字。

横向看,欧盟《数字服务法》也在推动平台加强未成年人保护和风险评估,但更常见的路径是要求风险报告、外部审计、推荐系统透明度和可追责流程。新墨西哥州此案更激进:它试图直接规定产品能力和安全结果。力度更大,执行边界也更脆。

未成年人保护与端到端加密的冲突会先落到用户身上

受影响最直接的是新墨西哥州用户,尤其是依赖 WhatsApp 私密通信的家庭、移民社区、小企业和学生群体。如果Meta真的选择退出,当地用户可能失去常用社交和通信入口;如果法院削弱未成年人加密能力,青少年账户与成年账户之间又会出现不同隐私等级。

这也是原文容易被忽略的限制:年龄验证不是一个纯安全按钮。平台要识别谁是未成年人,就需要更多身份、设备、支付、证件或行为信号。对儿童安全有帮助的工具,也可能把更多敏感数据交给平台或第三方验证机构。

接下来最该观察三件事:法院是否会缩窄禁令范围;是否会把“99%”这类结果指标改为流程和审计义务;Meta所谓“退出当地”是诉讼策略,还是会形成真实产品预案。若法院接受过宽的技术命令,其他州可能仿效;若完全否定整改,平台又会把“技术不可行”变成抵御监管的万能盾牌。

这场官司不会给未成年人保护一个简单答案。它更像一次压力测试:法律能不能在不拆毁加密、不制造伪指标的前提下,逼平台拿出可验证的安全改造。