Meta准备让AI去判断一个用户是不是太小了。
在Facebook和Instagram上,系统会看照片、视频,也会看帖子、评论、个人简介和配文。Meta提到的视觉线索包括身高、骨骼结构、图像主题等;文本线索则可能来自用户自己写下的年龄、学校阶段或生活语境。
这件事卡在一个很现实的问题上:13岁以下儿童本来不该使用这些平台,但只靠用户填生日,很容易失效。Meta现在想把年龄治理从“你说你几岁”推进到“平台主动判断你像不像未满13岁”。
我更在意的是后半句。保护儿童需要更强执行力,但一旦靠机器持续扫描内容来执行,边界就变得敏感。
Meta到底看什么,不能把它写成人脸识别
Meta在博客中强调,这套系统“不是人脸识别”,也“不识别图中的具体个人”。这点要分清。
它不是在说:这张照片里的人就是某某。它是在说:这张照片、视频或文字里,有没有暗示用户年龄偏低的线索。
可被纳入判断的材料,大致是这些:
| 判断维度 | Meta会看的线索 | 影响 |
|---|---|---|
| 视觉内容 | 身高、骨骼结构、一般图像主题、视频场景 | 用来判断是否疑似13岁以下 |
| 文本内容 | 帖子、评论、简介、配文中的语境线索 | 年龄判断不再只看注册生日 |
| 技术边界 | Meta称不是人脸识别,不识别具体个人 | 争议会集中在内容扫描范围,而不是身份匹配 |
| 年龄分层 | 13岁以下重点识别;13至18岁归入Teen Accounts | 低龄用户会被拦截,青少年会进入更严格默认设置 |
被系统判定为疑似13岁以下后,账号会被停用。用户需要验证年龄,才能避免账号被删除。
这里不能写成“永久删除”,也不能写成“全球全面上线”。原文能确认的是:相关面部年龄分析技术目前只在美国等部分国家可用,Meta计划后续扩大范围。
这也是现实约束。不同国家对年龄验证、儿童数据、面部分析的规则不一样。Meta能不能推、怎么推,不只取决于技术,也取决于当地监管是否接受。
为什么现在推:儿童安全压力已经压到平台门口
Meta这次动作,不是在真空里发生的。
新墨西哥州一个陪审团近期认定,Meta误导消费者对其平台安全性的理解,并未充分保护儿童免受儿童掠食者伤害,判令公司支付3.75亿美元。
这个背景很关键。对Meta来说,继续说“我们有年龄门槛”,已经不够了。监管者和家长要看的,是平台有没有更主动地把低龄儿童挡在外面。
行业也在往这个方向走。Yoti、k-ID等年龄验证服务,已经提供基于面部或其他信号的年龄估计。TikTok、YouTube等平台也长期面对未成年人保护、内容分级和家长控制压力。
区别在于,Meta这次更深地把年龄判断嵌入社交内容本身。
过去很多验证发生在注册、支付、访问敏感内容这些节点。现在,照片、视频、评论、配文都可能成为判断材料。治理更主动,触达也更广。
对家长和教育从业者来说,这会带来一个具体动作:不能只提醒孩子“别填真实生日”或“别乱加陌生人”。更应该检查孩子是否真的符合平台年龄要求,是否被归入Teen Accounts,以及账号遇到停用时需要怎样验证年龄。
这不是让家长替平台背锅。只是现实已经变了:孩子随手发的一张照片、一句配文,都可能被平台当成年龄线索。
真正要盯的是误判、申诉和材料留存
Meta没有公开这套系统的准确率、误判率,也没有披露具体模型细节。
所以现在不该把它夸成“精准识别低龄用户”。也不该直接断言它会大规模误伤。证据还不够。
更实际的问题有三类:
| 需要观察的问题 | 为什么重要 | 对用户的直接影响 |
|---|---|---|
| 误判后怎么申诉 | AI年龄判断一定会遇到边界案例 | 正常用户可能被停用账号,需要快速恢复通道 |
| 验证要交什么材料 | 年龄验证可能涉及证件、自拍或第三方服务 | 家长和青少年要承担隐私成本 |
| 材料保留多久、谁能访问 | 验证过程本身会产生敏感数据 | 决定这套机制是最小化治理,还是新增数据风险 |
对关注隐私合规的读者来说,关键不是Meta有没有“好意”。关键是它有没有把权力关进笼子里。
儿童保护需要执行力。可执行力如果建立在默认扫描更多内容之上,就必须配套清楚告知、低成本申诉、最小化数据使用。
否则,平台会得到一个很方便的工具:以保护儿童为名,把更多普通用户内容纳入自动化判断。
接下来最该看三件事。
Meta会把相关技术扩大到哪些国家;年龄验证会要求证件、自拍,还是接入第三方服务;Teen Accounts自动归类后,青少年和家长能不能清楚调整设置。
这三件事,决定它更像安全补丁,还是一次新的隐私拉锯。
