谷歌一年拦下 83 亿条广告,封号却变少了:AI 正把广告审核变成“外科手术”

安全 2026年4月16日
谷歌一年拦下 83 亿条广告,封号却变少了:AI 正把广告审核变成“外科手术”
谷歌最新广告安全报告透露了一个颇耐人寻味的变化:被拦截的违规广告创下新高,但被停用的广告主账户反而减少了。表面看像“放水”,实际上更像是 AI 正把过去大开大合的封禁策略,改造成更细颗粒度的精准打击;问题在于,这种更聪明的治理方式,究竟是在减少误伤,还是在让平台与灰产进入一场更隐蔽、更持久的拉锯战?

谷歌的广告系统,像一座永不停歇的大型交通枢纽。每天都有海量广告进站、过检、投放,也总有人试图把假药、诈骗、擦边内容和各种“高回报低风险”的陷阱偷偷塞进去。最新披露的数据说明,这场安检战不但没结束,反而越来越像一场 AI 对 AI 的攻防赛。

谷歌在 2025 年全球一共拦截了 83 亿条广告,远高于前一年的 51 亿条。数字很惊人,但真正耐人寻味的,不是“拦了更多”,而是“封得更少”——广告主账户停用数量并没有跟着激增。谷歌给出的解释很明确:现在的重点,不再只是粗暴地把“坏人”请出门,而是用 Gemini 等 AI 模型更早、更细地识别“坏广告”本身。

这不是一个简单的统计口径变化,而是平台治理逻辑正在改写的信号。

从“拉黑账户”到“拆解单条广告”,谷歌在换打法

过去几年,互联网平台处理广告违规,常用的是“连坐式”思路:发现问题账户,直接封;发现团伙作案,整批清。这个办法高效,震慑力也强,但副作用同样明显——误封、误伤,以及申诉成本高。尤其在全球广告主数量庞大、投放素材变化飞快的背景下,简单粗暴的治理越来越吃力。

谷歌这次给出的说法很像外科医生的语气。公司广告隐私与安全业务负责人 Keerat Sharma 直白地说,平台正在从“钝器”转向更细颗粒度的创意级审核,也就是不动不动就封账户,而是优先处理具体哪一条广告、哪一组素材、哪一种文案或哪一轮投放行为有问题。按照谷歌的说法,这种方式让错误停封同比减少了 80%。

如果这组数据属实,它确实击中了一个平台长期痛点:误伤正常商家。对很多中小广告主来说,账户一旦被停用,恢复流程往往漫长又模糊,损失不仅是广告预算,还有订单、流量和信任。谷歌现在想传递的信息是:我不是不打击违规,而是打得更准了。

但平台治理从来不是“更精准”四个字就能自动成立。因为更少封号的另一面,也可能意味着一些游走边缘的广告主获得了更长的试错空间:单条广告被拦下没关系,改一版素材再来,换个落地页再来,继续测试平台的识别阈值。对于灰产来说,这未必是坏消息。

生成式 AI 把诈骗门槛拉低了,也把审核门槛抬高了

83 亿条被拦广告背后,还有一个更现实的背景:骗子也升级了工具箱。谷歌自己承认,生成式 AI 正被越来越多地用于批量制造欺骗性内容。过去做一套像模像样的诈骗广告,需要一点设计能力、写作能力,甚至懂投放策略;现在,文案、图片、变体版本、A/B 测试素材,几分钟就能批量生成。

这也是为什么谷歌强调,Gemini 模型帮助它发现大规模投放中的异常模式,并在更早环节阻断问题广告。说白了,平台已经不只是审查“这条广告看起来对不对”,而是在分析“这一大串广告是不是同一个套路”“这个投放网络是不是在复制粘贴式扩散”。这更像风控,而不只是内容审核。

从行业角度看,这个趋势并不只属于谷歌。Meta、TikTok、亚马逊广告体系,甚至电商平台和短视频平台,都在面对同一个问题:生成式 AI 让内容生产成本几乎归零,违规内容的变体数量却指数级上升。你今天封掉一张假名人代言的金融广告图片,明天它就能变出十个新版本;你刚识别一套诈骗话术,后天模型又生成了更自然、更本地化的说法。

于是平台也被迫把 AI 塞进治理系统里。这很像军备竞赛:一边是生成式 AI 降低作恶门槛,一边是检测式 AI 提高防守效率。问题是,军备竞赛通常没有终点,只有成本越来越高。

美国和印度的数据,暴露出谷歌最头疼的两个战场

从地区数据看,谷歌的烦恼并不平均。2025 年,美国市场被移除超过 17 亿条广告,停用了 330 万个广告主账户,最常见违规类型包括广告网络滥用、虚假陈述和色情内容。这个组合很典型:流量大、预算高、转化价值高,自然也是黑灰产最愿意下注的地方。

而在用户规模巨大的印度,谷歌拦截了 4.837 亿条广告,接近前一年的两倍,但账户停用量却从 290 万降到 170 万。违规高发领域则包括商标、金融服务和版权问题。这个数据很有意思,它显示出一个更复杂的市场现实:在高速增长、广告主数量庞杂、数字化程度参差不齐的环境里,平台比起“一刀切”封禁,更可能选择先过滤内容、分级治理。

这也能解释谷歌为什么强调广告主验证机制。它希望在开户前就先做一道门槛,让坏人别轻易进来。理论上,这是一种更经济的治理思路:与其等广告上线后扑火,不如前端先拦住。但现实里,验证并不能完全阻断冒名、套壳公司和跨境灰产,只能抬高一点门槛。

对谷歌而言,美国像是高价值战区,印度则像是高复杂度战区。一个是钱多、骗子多、监管紧;一个是增长快、生态杂、违规形态更分散。两边都不好打。

这件事为什么重要:广告平台正在从“媒体”变成“自动化执法机器”

很多普通用户可能会觉得,广告安全报告不过是互联网公司例行公关文件,数字大得惊人,但离自己很远。其实不是。你在搜索页上看到的“官方投资平台”、YouTube 前贴片里的“名人荐股”、应用下载页面里的“快速贷款”,都可能是广告风控成败的直接结果。平台拦不住,损失的不只是品牌形象,还有用户的钱包和信任。

更深一层看,广告业务是谷歌现金流的命脉。广告系统越自动化、越依赖 AI,意味着谷歌不只是在卖广告位,它还在扮演规则制定者、审核者、仲裁者,甚至是实时执法者。这样的权力集中,本身就会带来争议:算法如何判定违规?广告主如何申诉?误伤由谁承担?平台有没有动力对大客户更宽容、对小商家更严格?这些问题,短期内都不会消失。

我个人对谷歌这次策略转向的看法是,方向上合理,情绪上却不能太乐观。精准拦截单条广告,肯定比“先封了再说”更文明,也更符合大型平台今天面对的监管压力。但只要广告投放仍然是一个高收益市场,骗子就不会因为你模型更聪明而主动退休。相反,他们会学着研究你的规则、模仿正常广告主的行为、利用 AI 生成更像真的东西。

说得直白一点,谷歌现在不是打赢了,而是换了一套更精密的武器。武器升级当然是好事,但战争还在继续。

下一步的悬念,不是 AI 能不能拦住广告,而是谁来监督 AI 的判断

谷歌称,2025 年超过 99% 的违规广告是在展示给用户前就被 AI 系统识别并拦下。这是一个非常强势的信号:审核已越来越前置,而且高度自动化。对用户来说,这听上去很安心;对广告主来说,这意味着命运越来越掌握在模型评分、风险标签和内部规则引擎手里。

未来真正值得追问的,不只是谷歌能拦多少,而是它愿不愿意解释“为什么拦”“为什么不封”“为什么封了别人却没封你”。尤其当 AI 审核深入到广告创意、落地页、账户行为乃至跨平台身份画像时,透明度就会成为新的焦点。平台如果只是不断公布漂亮数字,却不解释治理边界和纠错机制,那套系统迟早会遇到信任天花板。

从更大的技术叙事来看,这也是 2026 年 AI 落地的一个缩影:AI 不再只是聊天机器人和办公助手,它正在进入那些不那么性感、却真正决定互联网秩序的后台系统——风控、审核、分发、推荐、定价。人们常把 AI 想象成一个会写稿、会画图、会回答问题的助手,但在大公司内部,它更像一个看不见的保安、审计员和安检员。

而这个“保安”到底会不会误抓好人、漏掉坏人,决定的可能不是一次模型演示效果,而是亿万用户每天接触到的信息质量。

谷歌这次交出的,不是一张简单的成绩单,更像一封行业预告函:广告治理的下一阶段,将不再是平台和广告主之间的博弈,而是平台 AI、作恶 AI,以及监管者之间的三方拉锯。谁都不会轻松。

Summary: 谷歌拦下更多违规广告、却封掉更少广告主账户,这不是简单的“手软”,而是平台治理进入精细化阶段的标志。我判断,这种基于 AI 的创意级审核会成为行业主流,因为它更省成本、也更少误伤。但它不会终结广告诈骗,只会把战场推向更前端、更隐蔽的模型对抗。接下来真正决定胜负的,不只是识别能力,而是透明度、申诉机制和平台是否愿意接受外部监督。
谷歌广告审核AI治理Gemini违规广告拦截广告安全平台治理账户停用机器学习模型灰产攻防