AI脱衣技术第一次撞上新法:美国首例“Take It Down Act”定罪,挡不住的是工具,必须挡住的是恶意

第一枪已经打响,但这不是结束,而是开始
美国围绕“AI裸照”和深度伪造色情内容的治理,终于迎来了一个标志性节点。根据 Ars Technica 报道,37岁的俄亥俄州男子 James Strahler II 成为美国《Take It Down Act》之下首位被定罪的人。他认罪的罪名包括网络跟踪、制作儿童性虐待相关猥亵视觉材料,以及发布数字伪造内容。简单说,他不是“玩过火了”,而是把生成式 AI 当成了骚扰、恐吓、勒索和羞辱他人的工业化工具。
这起案子令人不寒而栗的地方,在于它几乎把这一类 AI 滥用最糟糕的可能性全占了:受害者包括至少 10 人,其中既有成年女性,也有未成年人;内容既有伪造裸照,也有带有乱伦暗示的极端图像;传播场景既包括色情网站,也包括直接发送给受害者家人、同事的定向羞辱。警方在他的手机里发现了 24 个以上 AI 平台和 100 多种基于网页的模型,生成的非自愿私密图像达到数百甚至上千张。
如果说前几年公众对 AI 色情深伪的印象,还停留在“明星换脸”或社交媒体上的猎奇恶作剧,这个案件等于把现实狠狠拉回来了:今天最危险的,不是技术展示有多炫,而是一个充满恶意的人,能把它变成一整套持续攻击他人的武器系统。
一部手机、上百个模型,AI作恶门槛已经低得可怕
案件材料显示,Strahler 用这些 AI 工具反复骚扰自己认识的女性,包括前女友、受害者的母亲,甚至把未成年男孩的脸套到成人身体上制作猥亵图片。更恶劣的是,他会把这些伪造内容发给受害者的母亲和同事,试图制造社交性死亡;还会冒充受害者在色情网站活动,进一步扩散内容。按照当地媒体说法,他甚至想用这种方式逼迫女性与自己复合,或者逼迫受害者发送真实裸照。
这类行为和传统网络骚扰最大的不同,是它具备了“批量生产”和“高度定制”两种能力。过去,一个施害者想伪造这类图像,可能需要 Photoshop 技术、时间和一定的传播渠道;现在,手机里装上几个 App,再打开一些网页模型,几分钟就能生成看起来“足够真”的内容。技术门槛下降之后,作恶者不再需要成为高手,只需要足够偏执、足够恶毒。
更刺眼的一幕是:他在第一次被捕后,居然还继续制作和发送假裸照。联邦调查介入后,警方又在他的新手机里发现了 2400 多张包含裸露、儿童性虐待材料或暴力内容的图片与视频。这说明问题已经不只是“法律有没有”,而是“威慑够不够”。对于某些人来说,AI不是诱因,AI只是把他们原本就存在的控制欲和施虐欲,放大成了高效率的数字暴力。
《Take It Down Act》为何重要:它在给“不是我拍的,所以不算”这套说辞关门
《Take It Down Act》于 2025 年 5 月通过,核心目标之一,就是把非自愿私密图像的治理,从传统偷拍、 revenge porn(报复性色情)扩展到 AI 生成和数字伪造内容。过去很长一段时间,很多施害者会钻一个极其荒唐却又现实存在的空子:这些图不是“真实拍摄”的,所以不该按传统私密影像伤害来处理。
这部法律实际上是在回应一个数字时代的新常识——伤害不取决于照片是不是相机拍的,而取决于它是否借用了真实身份、真实面孔和真实社会关系,去制造羞辱、恐惧和失控感。对受害者来说,别人转发的一张 AI 伪造裸照,和一张真实泄露的裸照,在社交后果上往往没有那么大的差别。名誉会受损,关系会破裂,工作可能受影响,心理创伤也一样真实。
所以,这次首例定罪的象征意义很强。它释放的是一个非常明确的司法信号:不要再拿“这是 AI 做的,不是真的”当挡箭牌。法律开始承认,伪造的私密内容同样可以构成严重侵害,尤其当对象涉及未成年人时,性质更是陡然升级。
当然,法律迈出这一步不代表问题已经解决。类似法律在执行层面会面临很多现实难题,比如内容取证、传播链追踪、平台配合速度、跨州乃至跨境司法协作。AI 模型和内容平台的分散化,也让“删除”这件事远比写在法律条文里更复杂。你删掉一个链接,可能还有十个镜像地址在等着你。
这不是美国一个州的猎奇案件,而是全球平台治理的预演
把视角拉远一点,这起案件其实是全球互联网平台都在面对的难题缩影。过去两年,从社交媒体到即时通信工具,再到色情网站和匿名论坛,AI 生成的非自愿私密图像已经形成了一条灰色流水线:素材抓取、模型生成、批量分发、匿名传播、再上传镜像。技术的每一个环节都有人在“优化效率”,而受害者往往被迫独自承受后果。
这也是为什么各国开始把“深度伪造色情”从道德问题,升级为合规和刑事治理问题。英国、韩国、欧盟都在推进相关立法或平台责任框架,中国这几年也在推进深度合成管理规则,要求对合成内容进行标识,禁止利用深度合成从事侵害他人名誉、隐私和肖像权益的行为。不同法域路径不同,但判断越来越一致:AI 色情伪造不是互联网小广告,它更像一种低成本、高杀伤的数字暴力。
这里还有一个经常被忽略的现实:平台并不总是“中立的管道”。报道提到,Strahler 曾把受害者内容发布到一个鼓励用户上传“任何合法内容”的网站。问题在于,这类平台往往游走在“形式上合规、实质上纵容”的边缘。它们未必亲手生成内容,却给传播、围观和二次伤害提供了温床。今天如果平台还停留在“用户上传,我们接到投诉再看”的被动姿态,那法律迟早会逼着它们改变。
真正的难题,不是AI能不能生成,而是谁来为后果负责
很多科技争议最终都会落回一个老问题:工具有罪吗?如果只是把责任都推给模型开发者,显然不完整;如果只抓具体施害者,也不够。因为这类伤害往往发生在一整套生态里——模型提供生成能力,平台提供传播场,支付和域名体系维持运转,社交网络则完成扩散。每个环节都可以说“我不是直接犯罪的人”,但每个环节又都可能在事实上降低犯罪成本。
我越来越觉得,关于生成式 AI 的讨论,最危险的一种幻觉就是把它当作纯粹的“创意工具”。对大多数正常用户来说,它当然可以是;但对恶意使用者来说,它同样是骚扰放大器、造谣引擎和人格羞辱机器。技术中立这句话,在产品发布会上很方便,在受害者报警时就显得过于轻飘。
这起案件之所以重要,不只是因为它是“首例”,而是它逼着社会回答一个更尖锐的问题:当一张根本不存在于现实中的裸照,足以摧毁一个人的现实生活时,我们究竟该把它视为虚构内容,还是现实伤害?我的答案很明确:它是后者,而且已经到了不能再用“新技术总会经历磨合”来敷衍的时候。
接下来,美国执法机关大概率会把这次定罪当成一个模板案件,继续推动类似起诉。更关键的是,平台和 AI 工具提供方会不会因此调整审核机制、默认限制裸露生成、强化身份与滥用风控。否则,今天抓到的是一个极端案例,明天冒出来的,可能是一百个更隐蔽、更熟练、也更会逃避责任的人。
技术史里常有这样一个瞬间:大家突然意识到,问题从来不是“机器能做到什么”,而是“人会拿它去做什么”。AI 裸照乱象,显然已经到了这个瞬间。