YouTube 正在把 AI 肖像检测工具开放给所有 18 岁以上账号用户。

使用方式不复杂。用户先完成一次类似自拍的人脸扫描,YouTube 再在站内寻找疑似使用其面部形象的内容。发现匹配后,平台会提醒用户。用户可以申请移除。

有意思的地方在这里:这不是一个“发现就删”的按钮。它更像是 YouTube 把深度伪造治理的入口,从公众人物身边往下放了一层。

过去更容易被保护的是创作者、政府官员、政客、记者、娱乐行业人士。现在,普通成年人的脸,也被纳入平台可监测的身份风险里。

它能发现什么,不能直接决定删什么

这套工具做的是“发现”和“提醒”,不是自动执法。

用户提交面部扫描后,YouTube 会在平台内部寻找相似内容。如果出现匹配,用户会收到提醒。接下来的动作,是用户主动提交移除请求。

是否删除,由 YouTube 按隐私政策判断。

环节YouTube 做什么用户要理解什么
加入项目提交自拍式人脸扫描平台会获得用于匹配的面部数据
检测范围在 YouTube 内寻找相似面部内容不是全网搜索,也不覆盖其他平台
发现匹配向用户发出提醒提醒不等于内容违规成立
申请移除用户提交删除请求删除要经过隐私政策审核
数据处理用户可退出项目并要求删除相关数据保护和数据提交是一笔交换

YouTube 审核时会看几个因素:内容是否逼真,是否标注为 AI 生成,是否能唯一识别某个人。

恶搞、讽刺等内容也可能存在例外。换句话说,一段视频让你不舒服,不等于平台一定会删。平台要判断它是否构成隐私层面的冒用。

这点很关键。很多人听到 deepfake 检测,会以为平台会自动扫、自动判、自动下架。实际不是。YouTube 只是把“我可能被冒用了”这件事更早推到用户面前。

为什么从公众人物扩到普通成年人

YouTube 早前先向内容创作者测试这项功能,之后扩展到政府官员、政客、记者和娱乐行业人士。这条路径很符合平台惯例。

先保护曝光高的人。因为他们的脸更容易被拿去做假视频,也更容易造成公共影响。

但生成式 AI 改变了风险分布。

过去,做一个像样的冒名视频,需要素材、技术和成本。现在,普通人公开发过的照片、短视频,也可能成为生成内容的原料。风险未必是全国舆论级别的造谣,更多时候可能发生在熟人圈、同事圈、学校圈。

比如羞辱性视频、诈骗头像、假身份账号,或者把某个人的脸放进一段暧昧、暴力、误导性内容里。对普通人来说,这类伤害不一定大声,但很具体。

这也是 YouTube 扩大范围的信号:平台开始承认,“普通脸”也有被合成、被冒用、被误认的风险。

对两类人影响最直接。

一类是经常露脸的普通用户,比如 vlog 用户、教师、主播、自由职业者。他们可以考虑加入检测项目,把 YouTube 当作一个站内预警工具。

另一类是更在意数据留存的人。对他们来说,选择不加入也合理。因为这项保护的前提,是先把自己的面部数据交给平台。用户可以退出项目,也可以要求 YouTube 删除相关数据,但这仍然需要信任平台的执行。

真正的难点在边界:脸能扫到,身份未必能保护住

这套工具只覆盖面部肖像。

它不覆盖声音,不覆盖身体姿态,不覆盖姓名、社交关系、语境暗示,也不覆盖 YouTube 之外的平台。如果有人用 AI 模仿你的声音,或者用文字、头像、背景信息指向你,这套面部检测未必能发现。

这就是现实约束。

平台治理 AI 冒用,常见做法是标注 AI 内容、接受用户举报、按政策审核。YouTube 这次更主动,把检测入口交给个人。但它没有绕过老问题:什么叫“足够像”?什么叫“唯一识别”?讽刺和侵权的界线在哪里?

这些问题没有简单答案。

对普通用户来说,最实际的做法不是把它当万能保险,而是把它当早期提醒:

  • 如果收到提醒,先看内容是否真的指向自己;
  • 如果认为构成冒用,再提交移除请求;
  • 如果后续退出项目,记得要求删除相关数据;
  • 如果问题发生在声音、文字或其他平台,还要走对应平台的举报路径。

接下来要看三件事。

第一,提醒是否足够准。误报太多,用户会疲劳;漏报太多,工具就只是安慰。

第二,审核尺度是否稳定。平台要同时处理真实伤害、AI 标注、恶搞讽刺和隐私边界,这比识别一张脸难得多。

第三,退出和数据删除是否透明。用户把脸交给平台,是为了减少被冒用的风险,不是为了换来另一层不确定。

回到开头,YouTube 开放的不是一个简单功能,而是一道新的门槛:普通成年人也可以要求平台帮自己看住一张脸。

但看见只是第一步。真正难的是,平台能不能在伤害发生时,给出稳定、可解释、可执行的判断。