人人都想拦住孩子上网,可年龄验证正在把整个互联网变成“查身份证”的门口

这两年,互联网发生了一件很微妙、但影响极大的变化:越来越多的网站和 App,不再默认你是一个普通用户,而是先把你当成一个“需要验明正身的人”。
一开始,这件事听上去非常正当。别让孩子看到色情内容,别让低龄用户刷到不适宜的信息,别让社交平台把青少年卷进算法黑洞——谁会反对呢?问题恰恰出在这里:当“保护孩子”成为一个几乎无法公开反对的政治口号,技术方案的粗糙和副作用,反而更容易被一笔带过。The Verge 最新的报道把这个现实说得很直白:年龄验证一团糟,但全世界还是在硬着头皮上。
从英国、美国、澳大利亚到法国、巴西,要求平台设置年龄门槛、验证用户年龄的法律正在快速扩散。几年之前,这还是政策讨论里的概念;到了 2026 年,它已经变成不少大型平台必须部署的标准动作。问题是,行业并没有等来一个真正成熟、低风险、低摩擦的方案。结果就是,我们正走进一个“先验证、后上网”的时代,而这套门禁系统本身还很不稳定。
AI 猜年龄,看起来聪明,实际上很冒险
现在最流行的办法之一,是所谓“年龄推断”——不直接问你要身份证,而是用平台已有的数据猜你的年龄。Meta 已经在 Instagram 上这么做了,用 AI 识别谁可能是青少年,然后把他们自动放进限制更多的“青少年账户”;Google、YouTube 也在扫描账户,识别可能未满 18 岁的用户;Discord 也准备跟进。
这套逻辑对平台来说很诱人。毕竟,直接弹出“请上传身份证”会吓跑用户,也会带来极大的合规和存储压力。相比之下,让算法悄悄在后台“判断一下”,听上去更轻、更顺滑,也更像今天互联网公司熟悉的套路:先收集数据,再分类,再管理。
可问题也很明显。AI 不是在看你的出生证明,它只能从你的关注内容、互动行为、使用时段、社交关系、搜索偏好里拼凑出一个“像不像未成年人”的画像。这个过程本质上是一种概率判断,而不是事实确认。你可以想象两个同样麻烦的场景:一个成年人因为爱看动漫、追校园剧、用流行语,被系统误判成青少年;另一个青少年因为行为模式“装得很成熟”,成功逃过限制。前者会觉得自己被平台“未成年化”了,后者则说明防线并不牢。
更关键的是,年龄推断会把平台进一步推向“行为监控型治理”。为了更准确地猜年龄,平台就更有动力收集更多信号、分析更细的行为轨迹。它表面上是在减少用户提交证件的麻烦,实际上却可能用更持续、更隐蔽的方式观察你。说得尖锐一点,这不是不侵犯隐私,而是把侵犯隐私这件事做得更丝滑了。
证件、自拍、第三方服务:隐私焦虑并没有消失
如果 AI 猜不准,那最简单粗暴的方法当然是看证件。于是,越来越多的平台和第三方服务开始提供上传身份证、驾照、信用卡信息,或者通过自拍、面部扫描来估算年龄。这类服务通常会强调自己“只验证,不留存”“重视隐私”“符合监管要求”,听上去很让人安心。
但现实世界里,任何涉及身份证件、人脸、生物识别的数据链路,都不是一句“我们很重视隐私”就能让人完全放心。过去十年,用户已经被太多次数据泄露教育过了:数据库会被攻破,外包商会出问题,权限管理会失控,原本承诺最小化保存的数据,也可能因为执法需求、商业合作或者系统缺陷被扩大用途。今天你是为了看一个网站提交证件,明天这些信息会不会出现在某个你根本没听过的风控系统里?没人敢打包票。
更尴尬的是,年龄验证常常发生在最敏感的内容场景里。比如成人内容、心理健康、性别认同、药物信息、暴力题材讨论区——这些本来就是用户最不想留下实名痕迹的地方。一个本应保护未成年人的制度,最后可能把成年人的匿名空间也一并压缩掉。互联网早年最重要的一项自由,其实就是“在不暴露现实身份的前提下获取信息和表达自己”。年龄验证如果做得太重,伤到的不只是体验,而是这层自由本身。
把责任甩给应用商店,也不一定是答案
另一条正在被讨论的路径,是把年龄验证前移到操作系统和应用商店层面。换句话说,不是每个 App 自己核验年龄,而是由 Apple、Google 这样的系统级平台提前知道你的年龄段,再决定哪些应用能下载、哪些功能能开放。这个方案从管理效率上看很有吸引力,尤其对监管者来说,它比要求成千上万家应用开发商各自建一套验证系统要“整齐”得多。
但这种模式的问题在于,它会进一步巩固平台巨头作为“数字看门人”的权力。今天它们决定谁能上架、怎么分成;明天它们还可能决定谁属于哪个年龄层、能看到什么、不能下载什么。对监管而言,这像是找到了一个总阀门;对用户而言,这意味着越来越多的网络身份信息会集中到少数几家公司手里。
这其实是近几年互联网治理一个越来越清晰的趋势:凡是难题,最后都想交给大平台做基础设施。内容审核如此,反诈骗如此,AI 安全如此,年龄验证也如此。可一旦系统级入口成了身份校验中心,我们就很难再说互联网是开放分布式的。它会更安全一些吗?也许。它会更可控一些吗?当然。它会不会也更封闭、更中心化?大概率也是。
真正的问题,不是“要不要保护孩子”,而是“代价由谁承担”
这件事之所以重要,不是因为年龄验证本身多新鲜,而是因为它浓缩了当下科技治理最典型的矛盾:社会目标几乎没人反对,但执行方式把成本转嫁给了所有人。
保护未成年人当然是必要的。没人会认真主张让 13 岁孩子自由出入所有内容平台。但如果现有技术做不到精准、克制、低侵入,立法和执法却已经在逼着行业大规模部署,那么结果往往不是“安全与自由兼得”,而是大家先接受一个粗糙系统,再慢慢适应它带来的各种误伤。很多监管工具都是这样长出来的:最初以例外形式出现,后来变成默认选项,最后大家甚至忘了它原本是应急措施。
回头看,这和当年的“实名制万能论”有点像。政策制定者总觉得,只要把匿名拿掉,问题就会少很多;平台总觉得,只要多收一点数据,风控就会更有效。可互联网的复杂性在于,身份越真实,不等于环境就越健康。骚扰、成瘾、诱导、极化这些问题,并不会因为用户出示了证件就自动消失。年龄验证能解决一部分准入问题,但解决不了平台设计本身的问题,比如推荐算法对青少年的吸附、短视频机制对注意力的掠夺、私信和群聊里的灰色行为。
所以真正值得追问的是:当我们一门心思把“入口守住”当成答案,会不会忽略了更费劲、但也更关键的工作?比如默认更保守的青少年产品设计、更透明的推荐逻辑、更强的监护工具、更严格的广告限制、以及对平台商业模式本身的约束。这些措施没有“扫一下脸就解决问题”那么爽快,但可能更接近真正的长期答案。
从记者视角看,我对年龄验证最大的担心不是它失败,而是它以“半成功”的状态长期存在。它不会彻底无效,所以政策不会轻易回头;它也不会足够好,于是误判、过度采集、隐私侵扰会变成新的日常。最可怕的技术,不是那种明显危险、人人警惕的技术,而是那种笨拙但合法、别扭却普及、人人抱怨却离不开的技术。年龄验证,正在很像这样一种东西。
接下来几年,我们大概会看到更多折中方案冒出来:设备端年龄凭证、零知识证明、一次验证多处通行、只返回“是否成年”而不暴露生日等更隐私友好的技术路线。它们听上去更先进,也确实比“把身份证发给每个平台”文明得多。但在成为现实标准之前,互联网用户恐怕还得继续穿过一排排不那么聪明、也不那么温柔的数字门禁。