欧盟一边踩刹车,一边亮红灯:AI法案延期,但“脱衣应用”先别想跑了

人工智能 2026年3月26日
欧盟议会最新表态很有意思:对AI监管的整体时间表选择放慢脚步,但对“脱衣应用”这类明显越线的产品,却准备更直接地下禁令。这不是简单的政策摇摆,而是一次现实主义调整——当立法赶不上技术时,先堵最危险的洞,再给更复杂的合规问题争取时间。

欧盟又在AI监管这件事上,展现了它熟悉的风格:法条写得很认真,落地时却发现现实世界比文件复杂得多。

最新消息是,欧洲议会以较大多数支持调整《欧盟人工智能法案》(EU AI Act)的关键时间表。一些原本计划今年8月生效的重要规定,可能被推迟执行:高风险AI系统的合规期限拟延后到2027年12月,受行业安全规则约束的AI系统——比如玩具、医疗设备相关产品——甚至可能延到2028年8月;而AI生成内容加水印的要求,也准备推迟到2026年11月。

但与此同时,议员们又对另一件事突然变得相当坚决:支持把“nudify apps”,也就是俗称的“AI脱衣应用”,纳入禁令范围。

这两件事放在一起看,很像一句大白话:复杂的先缓一缓,恶劣的先管住。

欧盟为什么突然“延后”,不是因为不想管,而是差点来不及管

如果只看标题,很多人可能会觉得欧盟是不是在AI监管上退缩了。我的判断恰恰相反,这更像是一种带着无奈的修正。欧盟并不是不想当全球AI监管的领跑者,而是它发现,做“第一个吃螃蟹的人”并不轻松,甚至容易被螃蟹夹到手。

EU AI Act原本被视为全球第一部系统性监管AI的标志性法律,地位有点像当年GDPR在数据隐私领域的存在。它的野心很大:按风险高低给AI分级,对高风险系统设定更严的要求,对某些用途直接禁止,还试图给生成式AI、基础模型、内容标识等划出边界。

问题是,法案写出来的时候,技术还没像今天这样“疯长”。过去两年,生成式AI从实验室玩具变成了大众工具,模型能力升级速度远超立法流程。于是就出现了一个非常尴尬的局面:监管者自己的配套指南还没发全,企业却已经被要求按时合规。欧盟此前就因为没能按时发布关键指导文件而遭到批评,企业在欧洲市场也一直处于一种“你让我守规矩,但你还没把规矩讲清楚”的状态。

所以这次延期,说白了是一次“承认现实”。尤其是高风险AI系统,这类产品往往涉及医疗、交通、教育、招聘、公共服务等场景,稍微管得粗糙一点,就可能把创新压住;管得太松,又会碰到人身安全、歧视和权利侵害的问题。欧盟现在选择往后挪,并不是给企业放水,而是在试图避免一场监管层面的“仓促上线”。

为什么“AI脱衣应用”先被盯上?因为它几乎没有灰色地带

相比高风险AI怎么定义、如何审计、怎样加水印这些技术和法务都纠缠不清的问题,“AI脱衣应用”反倒简单得多:它的伤害非常直观,而且几乎没有什么体面的公共价值可以拿来辩护。

所谓nudify app,本质上是利用生成式AI把正常照片处理成裸露、半裸露或性暗示图像,很多时候目标对象根本没有同意。它和早期的深度伪造色情内容一脉相承,只不过如今门槛更低、传播更快、界面更“傻瓜化”。过去需要一定技术能力才能做出的东西,现在可能一键就能生成。受害者则往往是女性、未成年人、前伴侣、校园同学,甚至是完全陌生的人。

欧盟这次推动禁令,并不是凭空起意。一个重要背景,是今年早些时候,马斯克旗下X平台上的Grok卷入了大量性化深度伪造内容争议,引发欧洲舆论强烈反弹。技术圈常说“模型是中性的,关键看人怎么用”,这句话在很多场景里成立,但在nudify app这里,借口空间并不大。一个产品如果核心卖点就是“帮你把别人衣服脱掉”,那它的设计目标本身就已经写在问题里了。

当然,欧洲议会目前给出的表述还比较原则化,细则并不明朗。报道提到,禁令可能不适用于那些设置了“有效安全措施”、能够阻止用户生成此类图像的AI系统。这里面就埋下了未来的一场技术与法律拉锯战:什么算“有效”?是关键词拦截就够了,还是要做人脸识别、年龄识别、使用场景审查?如果用户用变体词、截图上传、二次编辑绕过限制,责任该算谁的?这些问题,后面都得细化。

延期会让企业松口气,但也让欧洲市场继续处在“半雾天”里

对于在欧洲运营的AI公司来说,这次表决短期内大概是个好消息。尤其是那些做高风险场景的企业,终于多出了一点喘息时间。水印规则延期,也会让内容平台、模型公司和下游工具开发者少一点“明天就要交作业”的紧迫感。

但如果站在产业观察者的角度看,这并不是一个干脆利落的利好。原因很简单:延期不等于明确,反而可能让不确定性拉得更长。企业最怕的,从来不是要求严格,而是规则反复、解释滞后、时间表飘忽不定。今天说8月,明天说2027年,后天又可能在欧盟议会和欧盟理事会谈判时做新的修改。产品路线、法务预算、地区部署、模型训练策略,都会跟着摇摆。

更现实的一点是,欧洲议会现在只是表态支持,最终文本还要和由27个成员国部长组成的欧盟理事会谈。换句话说,法律能不能在原定8月节点之前改完,还是未知数。欧洲立法程序向来严谨,但严谨也意味着缓慢。对企业来说,这种“旧规则快到点,新规则还在路上”的空窗期,最让人头疼。

这其实也是欧盟AI治理的一贯矛盾:它想做全球规则制定者,但技术产业的速度、资本的耐心、用户的使用习惯,并不会因为法案章节写得漂亮就自动配合。GDPR时代,欧洲至少面对的是相对成熟的互联网平台经济;而今天的AI仍在剧烈演化,连“什么是模型能力边界”都说不准,更别提一步到位制定完美规则了。

这件事真正重要的地方,是监管开始学会“分轻重缓急”

我觉得这次消息里最值得关注的,不是具体延了几个月或几年,而是欧盟终于在某种程度上承认:AI监管不能把所有问题绑在同一个时间轴上处理。

过去不少监管讨论容易犯一个毛病——把“AI”当成一个统一物种。于是聊天机器人、水印系统、医疗算法、招聘筛选工具、自动驾驶辅助、深伪色情生成器,仿佛都该套进同一套节奏里。但现实不是这样。有些风险需要长期、精细、行业化治理,比如高风险AI合规;有些风险则属于“看见就该先按住”,比如脱衣应用、针对未成年人的性化伪造、明显侵犯人格权的工具。

从这个角度看,欧盟这次一边延期、一边加码禁令,反而比“所有规则按原计划整齐推进”更像成熟监管。因为真正危险的从来不是技术太快,而是监管把精力平均分配,结果谁都没管好。先把最容易造成直接伤害的产品拦下来,是务实选择。

不过,这也带来一个值得思考的争议点:如果欧盟对nudify app采取强硬禁令,那边界会不会继续外扩?例如,普通图像编辑模型、开源生成模型、通用大模型平台,若被第三方拿去做深伪色情内容,平台需要承担多大责任?如果未来立法把“有潜在滥用可能”的工具也一并压住,创新空间会不会被误伤?

这不是杞人忧天。过去几年,无论是社交平台内容审核,还是应用商店下架机制,都已经证明一件事:一旦进入“高敏感内容”监管,平台和开发者往往会倾向于过度删除、过度限制,以降低合规风险。对受害者而言,这是保护;对技术生态而言,可能也是新的摩擦成本。

从全球范围看,欧盟仍然在扮演“先试先错”的角色。美国在AI监管上更碎片化,更多依赖州法、行业规则和事后执法;英国喜欢强调灵活、原则导向;中国则在生成式AI、深度合成标识等方面推进得更快、更偏行政管理。欧盟的特色,是试图用一整部法律把AI治理框架写完整。理想很丰满,现实则一再提醒它:法律不是App,没法一键更新。

当技术开始“脱掉别人衣服”,社会就不能再假装那只是个玩具

很多科技新闻读起来都像参数变化、政策修订、时间节点调整,冷冰冰的。但“AI脱衣应用”这类产品不是抽象议题,它后面是一张张真实的脸,是被同学恶搞的女孩、被前任报复的普通人、被陌生网友拿来消费的未成年人。技术在这里不是魔法,而是一把廉价又隐蔽的刀。

所以我很赞成欧盟把这件事单独拎出来处理。不是因为它能一次性解决深伪问题,而是因为监管至少发出了一个足够明确的信号:有些AI用途不是“等行业成熟再讨论”,而是从一开始就不应该被包装成创新。

另一方面,AI Act关键条款延期,也提醒我们别对“监管落地”抱有太浪漫的想象。再先进的法律文本,最后都要回到执行、解释、审计和跨国协同这些笨功夫上。今天欧盟踩了一脚刹车,不代表它放弃上路;更像是它发现前面雾太大,先减速,再看清楚哪条路真能走下去。

Summary: 我的判断是,欧盟这次并不是在AI监管上后退,而是在重新排序优先级:对复杂但必要的规则延后,对伤害明确、社会容忍度极低的产品先下重手。这种“先止血、再精修”的思路,未来大概率会成为各国AI治理的主流。接下来真正值得看的是,欧盟能否把“禁脱衣应用”的原则写成可执行、可落地、又不过度误伤通用模型生态的细则;如果做不到,延期只会换来更长的混乱期。
欧盟人工智能法案AI监管欧盟议会AI脱衣应用高风险AI系统合规延期内容水印生成式AI数字安全欧盟