特朗普又把一桩严肃的人权议题,推成了社交平台上的真假图闹剧。
事情并不复杂:他先在 Truth Social 转发一张8名伊朗女性的拼贴照,称她们将被伊朗政权处决;第二天又宣称,自己已经帮助她们获释。但眼下公开信息只足以支持一半事实:这些女性至少部分是真实存在的人,争议集中在图像经过AI修饰,以及特朗普“我救了她们”的说法缺乏可核验证据。
图里的人是真的,图的叙事不一定是真的
最该先厘清的,是三层不同争议,不要混成一锅。
| 项目 | 目前较稳妥的信息 | 影响 | 判断 |
|---|---|---|---|
| 8名女性是否凭空捏造 | 不能这么说,至少其中的 Bita Hemmati 等人是真实个体 | 关系到案件是否被无中生有 | “AI脸”不等于“查无此人” |
| 拼贴图像是否有问题 | 至少存在AI修改、AI增强或AI操弄痕迹 | 容易把真实案件包装成更易传播的视觉物料 | 图像失真是真的 |
| 特朗普是否救人成功 | 目前没有公开证据证实 | 直接关系到政治人物是否在借题自夸 | 不能按他的自述写成既成事实 |
伊朗司法系统关联媒体 Mizan 很快否认特朗普说法,称他援引的是“完全错误的新闻”,并表示部分女性已经获释,其余面临的是监禁而非处决,也没有证据显示德黑兰因特朗普施压而改变处置。
但这也不能自动当成终局事实。伊朗官媒本身就不是中立仲裁者。此刻更可靠的写法只能是:两边说法冲突,均待进一步核实。
The Verge 引述 WITNESS 技术项目负责人 Mahsa Alimardani 的判断也很关键:这张拼贴图至少被AI处理过,但女性本人并非虚构。这里差一厘米,结论差十里。把“图像经过AI美化”偷换成“整个案件都是AI编的”,等于二次抹掉当事人。
真正被压扁的,是案件本身
我更在意的,不是网友有没有成功做一轮“AI鉴图游戏”,而是注意力机制如何工作。
一旦图片被做成统一光线、柔焦、漂亮构图的“可传播素材”,它就更适合在平台上传播,也更适合被政治人物拿来表态、邀功、抢占道德高地。天下熙熙,皆为利来;在今天的注意力市场里,“利”往往不是钱,是转发、站队和政治表演的镜头中心。
问题在这儿:真实的人权案件,需要的是耐心核验、法律跟进、持续施压;平台更奖赏的,却是高识别度头像、强情绪文案和一个能被复述的英雄叙事。于是“她们经历了什么”被挤到后排,“这图是不是AI”冲上前排,“是不是特朗普救的”成了主舞台。
这套机制一点都不新。19世纪黄色新闻靠煽情插图卖报,电视时代靠灾难画面塑造立场,今天只是把这套东西升级成了生成式AI工作流:先把受害者修得更像海报,再把复杂案件压成一句适合平台扩散的口号。技术变了,人性没怎么变。
生成式AI把公共传播推向更糟的一边
对伊朗女性当事人来说,代价很具体。她们先在现实里承受司法风险,再在全球传播里被重新摆拍、再度消费。她们的名字、处境、是否仍被羁押,反而被一张更“上镜”的拼贴盖过去。
对公共舆论也一样。讨论被带偏后,平台用户会形成一个很糟的决策路径:看到疑似AI图,先嘲笑;看到政治人物认领功劳,再站队;至于案件细节、信源强弱、谁真的还在狱中,没人有耐心追。
接下来最该观察的只有两点:一是这些女性各自的真实法律处境,是否有独立人权组织能给出更完整更新;二是平台和政治人物会不会继续默认使用这种“AI修图 + 英雄叙事”的传播模板。如果答案是会,那以后被吞掉的,不只是事实,还有当事人作为人的边界。
