当乐高画风变成战争武器:伊朗如何用 AI 短视频改写舆论战

像动画片一样好看,像战时传单一样好用
如果你只是匆匆刷过这些视频,大概率会以为那是某种“乐高版国际时事恶搞短片”。颜色很亮,节奏很快,人物表情夸张,镜头像游戏过场动画一样毫不拖泥带水。可等你多看两秒,就会发现里面不是玩具冒险,而是战机坠毁、儿童死亡、特朗普、内塔尼亚胡、乔治·弗洛伊德,以及大量充满敌我叙事的政治符号。
BBC 最近采访了其中一个重要账号 Explosive Media 的代表。对方起初还坚持自己“完全独立”,但在追问下终于承认:伊朗政府确实是客户。这个细节很关键。它不是简单证明“政府参与宣传”——这件事本来就不令人意外;真正值得警惕的是,国家宣传机器如今学会了用平台时代最擅长的语言说话:短、快、情绪浓、画面强、跨文化传播门槛低。
过去提到宣传片,很多人脑海里浮现的还是那种冗长、口号密集、只在电视台和官方渠道播放的内容。现在不一样了。它更像 TikTok 原生内容,更像为算法而生的战争叙事包。你不用相信它,只要你停留、转发、评论,它就已经赢了一半。
AI 把宣传的“工业化门槛”打下来了
这次事件真正让科技圈后背发凉的,不是某一条视频说了什么,而是这类内容的生产方式。Explosive Media 号称团队不到十人,却能高频、实时地制作出大量紧跟战局的内容,甚至有关于停火协议的视频,在官方正式宣布前就已经发布。放在几年前,这种速度和规模需要一整套成熟的影视后期、动效、脚本与发行团队;而现在,生成式 AI 把这一切压缩成了一种“轻资产内容兵工厂”。
这几年,大家已经看过 AI 写文案、AI 做海报、AI 生成配音。战争传播把这些能力打包到一起,结果就是一种极高效率的叙事机器:图像生成负责视觉冲击,语音合成负责情绪引导,短视频剪辑负责节奏控制,社交平台分发负责定向传播。技术上并不神秘,真正厉害的是它们被拼装成了一条完整的心理影响流水线。
有学者把这类内容称作“Slopaganda”,也就是“AI 垃圾内容”与“宣传”的混合词。但老实说,这个词有点低估了它。垃圾内容通常让人联想到粗制滥造、毫无说服力,但 BBC 采访的宣传研究者指出,这些视频其实“高度复杂”。复杂不在于画质有多逼真,而在于它知道如何调用西方互联网的熟悉符号:乐高美学、说唱配乐、阴谋论梗、美国社会创伤记忆,甚至是 Epstein 文件这样的舆论热点。
换句话说,AI 不只是帮他们“做内容更快”,而是在帮助他们“说人话,说目标受众听得懂的话”。过去很多威权国家对西方传播失手,一个重要原因就是内容翻译得过去,语境翻译不过去。现在,模型本身就是在西方互联网语料上训练出来的,这个短板突然被补齐了。
它为什么有效?因为今天的互联网偏爱情绪,不偏爱事实
这类视频里有明显失实之处。比如某条视频宣称伊朗俘获了一名坠毁美军战机飞行员,但美方说此人已被特种部队救出并在科威特接受治疗。面对 BBC 追问,账号代表不仅不承认,还进一步抛出“也许根本没有飞行员”“他们是去偷铀”的说法。这种回应方式其实很熟悉:不是提供证据,而是持续制造“也许还有另一种真相”的氛围。
在社交平台上,这招比我们想象中有效。因为平台奖励的从来不是最严谨的内容,而是最能激起参与的内容。只要一个说法足够刺激、足够出人意料、足够契合用户对某种势力的既有不信任,它就能迅速扩散。BBC 提到,一位美国 TikTok 立场型博主甚至告诉粉丝,这些“乐高视频”此前“惊人地准确”。这就是今天事实传播最尴尬的地方:一条需要核实、上下文和多个信源支撑的真实新闻,常常跑不过一条 30 秒、音乐卡点、立场鲜明的 AI 视频。
这也是为什么此事不只是伊朗问题。它几乎是全球性模板。俄乌冲突中,双方都大量使用 meme、短视频与视觉符号作战;加沙冲突期间,平台上也充满经过剪辑、重配字幕甚至真假混杂的内容。不同的是,生成式 AI 让这种“低成本、高情绪、高频率”的宣传进一步自动化了。以前造谣需要文案和剪辑师,现在你只需要一个会写 prompt、懂热点、懂平台机制的小团队。
而且别忘了,这些内容并不总是伪装成“新闻”。它们以娱乐外壳出现,以流行文化皮肤包装,再把政治立场塞进去。观众降低了戒心,平台提高了推荐意愿,传播就成了一场穿着卡通外衣的心理战。
从“外交声明”到“算法外交”,中间人正在消失
网络战专家把伊朗的这类做法称为“防御性模因战争”。这个说法挺有意思。它暗示每一方都认为自己是在反击对方叙事,而不是主动进攻。于是,宣传不再只是单向灌输,而成了一种不断抢夺道德高地、争夺国际同情和注意力的实时竞赛。
这也是今天战争传播最根本的变化:传统意义上的中间人——记者、编辑、电视台、外交发言体系——都在被绕过。一个国家想影响另一国公众,不必再等大报采访,不必再通过正式记者会,不必再精心撰写外宣白皮书。它可以直接把内容扔进 X、TikTok、Instagram,让算法帮忙找观众。只要内容足够“平台友好”,传播速度可能远超正规媒体。
这听上去像传播民主化,实际上也可能是失真民主化。因为中间人的缺点是慢、保守、常常惹人烦;但中间人的功能也很重要——核实、筛选、建立责任链。一旦这层机制被短视频和 meme 直接替代,公众接收到的就不再是经过验证的战况,而是一串串情绪浓度极高的视觉碎片。它们像子弹一样密集,但很少告诉你全貌。
BBC 报道里还有一个让人五味杂陈的细节:伊朗国内大规模断网,普通民众难以上网,但这位内容生产者却表示自己拥有政府给的“记者网络”。这几乎像一个黑色幽默:本国公民被隔绝在信息之外,面向海外的 AI 宣传却在全速运转。信息自由没有扩张,它只是被重新分配了——更多资源给对外叙事,较少资源给国内公众知情。
今天看的是伊朗,明天可能是所有国家、所有品牌、所有议题
如果把视野再拉大一点,这件事不只属于地缘政治。它是整个内容产业和平台治理都必须面对的预演。因为同样的方法,也可以被用于选举、金融市场、公共卫生,甚至企业公关战。想象一下,一家公司在危机中雇佣一个十人不到的 AI 内容团队,24 小时生产“看似用户自发创作”的短视频;或者某个政治团体用流行二创风格持续放大竞争对手丑闻与阴谋。技术上没有任何障碍,甚至现成工具比战争时期更好用。
平台封号当然是一种反应,但目前看来,效果很有限。旧账号关掉,新账号很快冒头,像打地鼠一样。更难的是,平台该依据什么标准来处置?是基于虚假信息、国家关联标签、仇恨内容,还是基于“合成媒体未标注”?每一条规则都可能被规避,也都可能引发政治争议。
我越来越觉得,未来几年最重要的媒体素养,不再只是“辨别真假图片”,而是理解内容如何被制造、包装和投放。一个视频即便画面明显是假的,也可能在叙事上非常有效;一段内容即便不是百分之百造谣,也可能通过省略背景和强行联想,把受众推向完全错误的判断。AI 时代的宣传,不一定追求你相信全部事实,它更想让你对一切都失去把握。
这或许才是最麻烦的地方。最成功的宣传,从来不是让你背诵口号,而是让你怀疑别人、怀疑媒体、怀疑证据,最后只愿意相信那个最会调动你情绪的故事。今天这套故事穿着乐高风外套,看起来甚至有点滑稽;但它的传播机制,一点也不好笑。
延伸来看,这场“AI 宣传实验”也给所有生成式视频公司提了个醒:当模型能力持续提升、成本持续下降时,真正稀缺的不再是制作能力,而是可信度、审核机制与上下文。问题从来不只是“能不能生成”,而是“谁在生成,为了什么,谁来承担后果”。