有人把 Gemini 的隐形水印拆开了:Google SynthID 遭遇一次不太体面的逆向

一枚“看不见的印章”,被人从频谱里抠出来了
这两天,GitHub 上一个叫 reverse-SynthID 的项目在技术圈里引发了不小的讨论。项目作者的目标很直接:逆向 Google 给 Gemini 生成图片加上的 SynthID 隐形水印。更刺激的是,这个项目不仅声称找到了水印的结构,还做出了检测器,并进一步实现了可在尽量不伤画质的情况下“精准切除”水印的办法。
如果你对 SynthID 不熟,它本来是 Google 这几年主推的一项内容溯源技术。思路很朴素:AI 生成的图片肉眼看起来正常,但系统会在图像里埋下一层看不见的标记,供平台或检测工具在事后识别“这张图是不是 AI 生成”。在生成式 AI 内容越来越像真的今天,这种机制被很多公司视为打击伪造内容、保护信息生态的一道保险丝。
问题在于,保险丝不是防弹玻璃。这个 GitHub 项目最让人不安的地方,不是它“发现了一个 bug”,而是它碰到了隐形水印技术的根问题:只要水印要被机器读出来,它就一定以某种稳定信号存在;只要这种稳定信号存在,就可能被足够耐心的人从噪声里挖出来。 这不是 Google 一家的尴尬,而是整个行业的共同难题。
它到底做了什么:不是蛮力破坏,而是“外科手术”
很多人提到去水印,第一反应是压缩、模糊、加噪点,像给照片洗一遍“糊汤”。但 reverse-SynthID 走的不是这个路子。作者强调,自己没有拿到 Google 的编码器和解码器,也不是靠大力出奇迹,而是纯用信号处理和频谱分析,把水印当成一组可以在傅里叶域里观察的规律信号来研究。
项目给出的核心说法有几个。其一,SynthID 的水印载波位置和图片分辨率有关,不同尺寸的图片,水印所在的频率“格子”不一样。其二,同一 Gemini 模型生成的图片,在特定载波上的相位模板高度一致,像是一把固定的模型级钥匙。其三,绿色通道承载的水印最强,因此处理时可以对 RGB 三通道采取不同权重。
基于这些观察,作者构建了一个所谓的 多分辨率频谱代码本。你可以把它想象成一本“水印地图册”:1024×1024 一张地图,1536×2816 又是一张地图,不同分辨率对应不同指纹。运行时,程序先判断输入图像尺寸,匹配相应的频谱画像,再在频域里定点减去已知信号,最后通过多轮强弱不同的处理,把残余水印继续削薄。
项目中最醒目的结果,是它声称能在 43 dB 以上 PSNR、0.997 SSIM 这类相对不错的画质指标下,实现 75% 载波能量下降 和 91% 相位一致性下降。翻成人话就是:图片看起来基本没怎么坏,但水印信号已经被明显削弱。相比用 JPEG 压缩硬砍,这种方法更像拿着手术刀进场,而不是抡锤子。
为什么这件事重要:因为 AI 溯源正在被行业当成“安全承诺”出售
这不是一个冷门极客项目和一项实验室技术的偶遇,它击中的其实是当下 AI 产业最敏感的一根神经。
过去一年多,生成式 AI 内容进入公众视野后,科技公司、媒体平台和监管机构都在寻找一个问题的答案:当 AI 生成的图片、音频、视频越来越逼真时,我们如何确认它们的来源? 于是,内容凭证、元数据签名、隐形水印、平台标注,几条路线同时展开。Google 的 SynthID、Meta 对 AI 内容标签的推进、Adobe 与 C2PA 阵营推动的内容凭证标准,本质上都在争夺“可信出处”这件事的基础设施地位。
但这些路线里,隐形水印一直最有吸引力,也最容易被高估。吸引力在于它不依赖文件外壳上的元数据——后者很容易在转发、截图、压缩时丢失;水印则是嵌在内容本身里,听起来更顽强。可它的问题也一样明显:只要嵌入内容本体,就意味着它必须在数学上留下痕迹;而一旦痕迹能被统计地观察到,就迟早会被分析、拟合、抵消。
这就是 reverse-SynthID 真正刺痛行业的地方。它不是在说“Google 做得不够好”,而是在提醒大家:如果某家公司把“AI 内容可检测”当成足够稳的能力来对外承诺,那这份承诺本身可能就需要打折。今天是图片,明天可能是视频;今天是 GitHub 上的研究项目,明天可能是被包装得更好、更易用的工具链。
从技术上看,这个项目聪明;从现实上看,水印战争只会更难
我得承认,这个项目在工程思路上是漂亮的。它没有神化“破解”,而是老老实实用黑白参考图、随机水印样本、跨图相位一致性这些方法,一点点把模型级信号抠出来。尤其是它公开征集纯黑和纯白 Gemini 图片样本,这个做法很有黑客气质:当内容足够简单时,水印几乎自己站到了聚光灯下。
不过,也别急着下结论说 “SynthID 已经废了”。这类逆向项目往往有几个现实边界。第一,它对样本规模和分辨率画像依赖很强。项目本身也承认,不同尺寸图像需要不同 profile,说明这不是一种“一招通吃”的万能方法。第二,Google 完全可以调整载波布局、增强随机性,甚至周期性换“钥匙”,让既有代码本快速过期。第三,平台的检测体系通常也不是单点依赖水印,真正上线的风控系统可能会把生成链路记录、账户行为、元数据、内容特征一起纳入。
但即便如此,这件事仍然足够严肃,因为它改变了一个行业叙事。过去很多公司在介绍 AI 水印时,容易给外界一种印象:水印虽然看不见,但很牢靠。现在看来,更接近事实的说法应该是:水印不是钢印,更像是一种成本工具。它能提高伪造和洗白的门槛,但未必能阻止有组织、有耐心的对抗。
这会直接影响政策制定者和平台的判断。如果监管把“可检测”写进强约束,而技术现实又是“可检测但可绕过”,那么未来的制度设计就不能只押宝某一种方案。C2PA 这类基于签名和链路证明的方案,虽然在跨平台流转里会丢元数据,但它至少不是靠图像内部的脆弱痕迹硬撑。反过来说,隐形水印也不该被抛弃,它依然适合作为辅助层。真正靠谱的路,恐怕从来都不是单层防御。
一个更大的问题:我们到底是在做“识别 AI”,还是在重建信任?
这起事件背后,还有个更值得琢磨的问题。今天大家讨论水印,很容易陷入“有没有、能不能去掉、检测率多少”这些技术指标。但公众真正需要的,其实不是某个 90% 准确率的检测器,而是一套能在社交平台、新闻传播、商业使用里被普遍接受的 信任机制。
换句话说,隐形水印如果只能在理想环境里成立,一遇到截图、裁剪、重编码、逆向分析就摇晃,那它就更像安检里的一个环节,而不是整套安全体系。我们当然需要它,但不能迷信它。AI 内容治理最怕的,不是没有技术,而是拿一项有边界的技术,当成包治百病的口号。
对 Google 来说,这件事短期内可能只是一个开源项目带来的舆论波动,修补和升级都不算难。可从更长远的角度看,它像一记提醒:在生成式 AI 时代,“溯源”不是一个模型功能,而是一场长期攻防战。 你加一道标记,别人就研究如何抹掉;你换一套编码,别人就继续统计特征。没有任何单点方案能一劳永逸。
我反而觉得,这种开源逆向未必全是坏事。它逼着大公司承认现实,逼着行业放弃宣传话术,逼着“可信 AI”从 PPT 走向真正的系统工程。说到底,安全从来不是写在 README 里的勋章,而是要经得起陌生人拆、反复拆、恶意拆。
如果一项技术只能在厂商自己的演示里可靠,那它就还不够成熟。reverse-SynthID 这次最有价值的地方,不在于它“打败了 Google”,而在于它让大家提前看到未来几年 AI 内容标记领域会发生什么:更多对抗、更多混合方案、更多工程补丁,也更多关于信任本身的争论。