非营利组织 RSL Media 推出 Human Consent Standard,试图为 AI 使用个人肖像、声音、创作作品、角色、设计和品牌建立一套可机器读取的许可声明方式。George Clooney、Tom Hanks、Meryl Streep、Cate Blanchett 等演员,以及 CAA、Music Artists Coalition 等组织已公开支持。
这件事的关键不在于好莱坞明星又一次反对 AI 仿冒,而在于它把“同意”从法律主张往技术接口推进了一步。对 AI 内容平台和模型开发者来说,未来争议可能不再只发生在律师函里,也会发生在爬虫、注册表和权限校验流程里。
Human Consent Standard 想补上 AI 授权的缺口
Human Consent Standard 允许权利方设置三类权限:完全允许、有条件允许、完全限制。这里的“有条件”可以包括需要另行许可或满足特定使用要求,但它不是统一定价系统,也不等于所有使用都自动进入付费通道。
| 项目 | 过去常见做法 | Human Consent Standard 的变化 |
|---|---|---|
| 权利对象 | 多围绕网页内容或单个文件 | 扩展到身份、声音、角色、商标和作品本身 |
| 权限表达 | 靠合同、声明、诉讼或平台规则 | 以 AI 系统可读取的信号表达 |
| 权限选项 | 往往是允许或反对的粗粒度态度 | 完全允许、有条件允许、完全限制 |
| 执行前提 | 事后维权成本高 | 依赖 AI 公司主动发现、核验和遵守 |
它建立在 Really Simple Licensing 标准之上。RSL 原本更像是网站告诉 AI 爬虫“这条 URL 下的内容怎么用”;Human Consent Standard 则进一步指向“某个人的脸、声音,或某个角色、品牌本身怎么用”。这一区别很重要,因为 AI 生成的仿冒往往不需要复制某个具体网页,也能调用一个公众人物或作品角色的可识别特征。
robots.txt 和 6 月注册表,决定它是不是基础设施
按照 RSL Media 联合创始人 Eckart Walther 的说法,AI 系统可以通过网站的 robots.txt 发现相关声明,并在 6 月上线的注册表中核验权限。注册表将允许个人和权利方验证身份,并发布关于肖像、声音、作品、角色或品牌的使用声明;RSL Media 再把这些条件转译成 AI 系统可读的信号。
这里有一个容易被忽略的限制:robots.txt 在互联网历史上一直更接近“君子协定”,不是强制闸门。搜索引擎和正规爬虫通常会尊重它,但恶意抓取者可以无视。AI 授权标准也面临同样问题——它能降低守规矩公司的合规成本,却很难直接拦住不守规矩的模型、换壳应用和海外灰色服务。
所以,对模型公司而言,这套标准的现实价值在于减少不确定性。若平台要做虚拟演员、AI 配音、角色生成或品牌素材生成,机器可读授权能让产品团队在上线前做权限检查,减少“先发布、再撤回、后赔钱”的风险。对创作者而言,它提供的是更低门槛的声明入口,而不是胜诉保证。
好莱坞支持背后,是从名人维权到普通创作者控制权
好莱坞对这类标准反应积极,并不意外。Matthew McConaughey 曾通过商标化自己的片段来限制 AI 仿冒,Taylor Swift 也曾申请与照片和声音片段相关的商标,以应对 AI copycats。名人有律师、经纪公司和商业价值,能把侵权问题推到台前;普通演员、配音员、插画师和小品牌通常没有这种资源。
Human Consent Standard 的叙事正是把控制权从少数公众人物扩展到更多权利人。Cate Blanchett 在发布材料中称,它让“不只是公众人物”的人也能声明 AI 如何使用其作品。这个方向有现实意义:生成式 AI 正在把“可识别风格”“可识别声音”“可识别面孔”变成可复制资产,权利边界若只靠事后诉讼,成本会压倒多数个体创作者。
但接下来最该观察的不是明星名单还会不会变长,而是三件事:6 月注册表上线后身份验证是否可靠;主流 AI 公司是否接入;平台是否愿意在生成、训练、检索等不同环节执行这些声明。若没有执行者,标准只是公告牌;若接入足够多,它才可能成为 AI 内容产业的基础合规模块。
