谷歌一年拦下 83 亿条广告,封号却变少了:AI 正把广告审核变成“外科手术”

谷歌的广告系统,像一座永不停歇的大型交通枢纽。每天都有海量广告进站、过检、投放,也总有人试图把假药、诈骗、擦边内容和各种“高回报低风险”的陷阱偷偷塞进去。最新披露的数据说明,这场安检战不但没结束,反而越来越像一场 AI 对 AI 的攻防赛。
谷歌在 2025 年全球一共拦截了 83 亿条广告,远高于前一年的 51 亿条。数字很惊人,但真正耐人寻味的,不是“拦了更多”,而是“封得更少”——广告主账户停用数量并没有跟着激增。谷歌给出的解释很明确:现在的重点,不再只是粗暴地把“坏人”请出门,而是用 Gemini 等 AI 模型更早、更细地识别“坏广告”本身。
这不是一个简单的统计口径变化,而是平台治理逻辑正在改写的信号。
从“拉黑账户”到“拆解单条广告”,谷歌在换打法
过去几年,互联网平台处理广告违规,常用的是“连坐式”思路:发现问题账户,直接封;发现团伙作案,整批清。这个办法高效,震慑力也强,但副作用同样明显——误封、误伤,以及申诉成本高。尤其在全球广告主数量庞大、投放素材变化飞快的背景下,简单粗暴的治理越来越吃力。
谷歌这次给出的说法很像外科医生的语气。公司广告隐私与安全业务负责人 Keerat Sharma 直白地说,平台正在从“钝器”转向更细颗粒度的创意级审核,也就是不动不动就封账户,而是优先处理具体哪一条广告、哪一组素材、哪一种文案或哪一轮投放行为有问题。按照谷歌的说法,这种方式让错误停封同比减少了 80%。
如果这组数据属实,它确实击中了一个平台长期痛点:误伤正常商家。对很多中小广告主来说,账户一旦被停用,恢复流程往往漫长又模糊,损失不仅是广告预算,还有订单、流量和信任。谷歌现在想传递的信息是:我不是不打击违规,而是打得更准了。
但平台治理从来不是“更精准”四个字就能自动成立。因为更少封号的另一面,也可能意味着一些游走边缘的广告主获得了更长的试错空间:单条广告被拦下没关系,改一版素材再来,换个落地页再来,继续测试平台的识别阈值。对于灰产来说,这未必是坏消息。
生成式 AI 把诈骗门槛拉低了,也把审核门槛抬高了
83 亿条被拦广告背后,还有一个更现实的背景:骗子也升级了工具箱。谷歌自己承认,生成式 AI 正被越来越多地用于批量制造欺骗性内容。过去做一套像模像样的诈骗广告,需要一点设计能力、写作能力,甚至懂投放策略;现在,文案、图片、变体版本、A/B 测试素材,几分钟就能批量生成。
这也是为什么谷歌强调,Gemini 模型帮助它发现大规模投放中的异常模式,并在更早环节阻断问题广告。说白了,平台已经不只是审查“这条广告看起来对不对”,而是在分析“这一大串广告是不是同一个套路”“这个投放网络是不是在复制粘贴式扩散”。这更像风控,而不只是内容审核。
从行业角度看,这个趋势并不只属于谷歌。Meta、TikTok、亚马逊广告体系,甚至电商平台和短视频平台,都在面对同一个问题:生成式 AI 让内容生产成本几乎归零,违规内容的变体数量却指数级上升。你今天封掉一张假名人代言的金融广告图片,明天它就能变出十个新版本;你刚识别一套诈骗话术,后天模型又生成了更自然、更本地化的说法。
于是平台也被迫把 AI 塞进治理系统里。这很像军备竞赛:一边是生成式 AI 降低作恶门槛,一边是检测式 AI 提高防守效率。问题是,军备竞赛通常没有终点,只有成本越来越高。
美国和印度的数据,暴露出谷歌最头疼的两个战场
从地区数据看,谷歌的烦恼并不平均。2025 年,美国市场被移除超过 17 亿条广告,停用了 330 万个广告主账户,最常见违规类型包括广告网络滥用、虚假陈述和色情内容。这个组合很典型:流量大、预算高、转化价值高,自然也是黑灰产最愿意下注的地方。
而在用户规模巨大的印度,谷歌拦截了 4.837 亿条广告,接近前一年的两倍,但账户停用量却从 290 万降到 170 万。违规高发领域则包括商标、金融服务和版权问题。这个数据很有意思,它显示出一个更复杂的市场现实:在高速增长、广告主数量庞杂、数字化程度参差不齐的环境里,平台比起“一刀切”封禁,更可能选择先过滤内容、分级治理。
这也能解释谷歌为什么强调广告主验证机制。它希望在开户前就先做一道门槛,让坏人别轻易进来。理论上,这是一种更经济的治理思路:与其等广告上线后扑火,不如前端先拦住。但现实里,验证并不能完全阻断冒名、套壳公司和跨境灰产,只能抬高一点门槛。
对谷歌而言,美国像是高价值战区,印度则像是高复杂度战区。一个是钱多、骗子多、监管紧;一个是增长快、生态杂、违规形态更分散。两边都不好打。
这件事为什么重要:广告平台正在从“媒体”变成“自动化执法机器”
很多普通用户可能会觉得,广告安全报告不过是互联网公司例行公关文件,数字大得惊人,但离自己很远。其实不是。你在搜索页上看到的“官方投资平台”、YouTube 前贴片里的“名人荐股”、应用下载页面里的“快速贷款”,都可能是广告风控成败的直接结果。平台拦不住,损失的不只是品牌形象,还有用户的钱包和信任。
更深一层看,广告业务是谷歌现金流的命脉。广告系统越自动化、越依赖 AI,意味着谷歌不只是在卖广告位,它还在扮演规则制定者、审核者、仲裁者,甚至是实时执法者。这样的权力集中,本身就会带来争议:算法如何判定违规?广告主如何申诉?误伤由谁承担?平台有没有动力对大客户更宽容、对小商家更严格?这些问题,短期内都不会消失。
我个人对谷歌这次策略转向的看法是,方向上合理,情绪上却不能太乐观。精准拦截单条广告,肯定比“先封了再说”更文明,也更符合大型平台今天面对的监管压力。但只要广告投放仍然是一个高收益市场,骗子就不会因为你模型更聪明而主动退休。相反,他们会学着研究你的规则、模仿正常广告主的行为、利用 AI 生成更像真的东西。
说得直白一点,谷歌现在不是打赢了,而是换了一套更精密的武器。武器升级当然是好事,但战争还在继续。
下一步的悬念,不是 AI 能不能拦住广告,而是谁来监督 AI 的判断
谷歌称,2025 年超过 99% 的违规广告是在展示给用户前就被 AI 系统识别并拦下。这是一个非常强势的信号:审核已越来越前置,而且高度自动化。对用户来说,这听上去很安心;对广告主来说,这意味着命运越来越掌握在模型评分、风险标签和内部规则引擎手里。
未来真正值得追问的,不只是谷歌能拦多少,而是它愿不愿意解释“为什么拦”“为什么不封”“为什么封了别人却没封你”。尤其当 AI 审核深入到广告创意、落地页、账户行为乃至跨平台身份画像时,透明度就会成为新的焦点。平台如果只是不断公布漂亮数字,却不解释治理边界和纠错机制,那套系统迟早会遇到信任天花板。
从更大的技术叙事来看,这也是 2026 年 AI 落地的一个缩影:AI 不再只是聊天机器人和办公助手,它正在进入那些不那么性感、却真正决定互联网秩序的后台系统——风控、审核、分发、推荐、定价。人们常把 AI 想象成一个会写稿、会画图、会回答问题的助手,但在大公司内部,它更像一个看不见的保安、审计员和安检员。
而这个“保安”到底会不会误抓好人、漏掉坏人,决定的可能不是一次模型演示效果,而是亿万用户每天接触到的信息质量。
谷歌这次交出的,不是一张简单的成绩单,更像一封行业预告函:广告治理的下一阶段,将不再是平台和广告主之间的博弈,而是平台 AI、作恶 AI,以及监管者之间的三方拉锯。谁都不会轻松。