X 在英国给了一个很容易被误读的数字:用户举报的恐怖主义和非法仇恨内容,至少 85% 要在最多 48 小时内完成评估。

注意,是“评估”,不是“删除”。这条线划清了,整件事才不会看错。

英国网络安全监管机构 Ofcom 接受了 X 的新承诺,但没有宣布 X 已经违反英国非法内容规则,也没有开罚单。更准确的说法是:X 先把话写进承诺书,Ofcom 接下来要看它怎么交账。

X 承诺了什么,边界在哪里

这份承诺覆盖的是英国监管语境下的非法恐怖内容和非法仇恨言论,重点是英国用户能看到什么,不是 X 的全球政策大转向。

项目X 的承诺关键边界
账号处理在英国限制访问被报告发布非法恐怖内容、并被认定由英国恐怖组织运营的账号针对英国可访问内容,不等于全球封禁
举报处理最多 48 小时内评估至少 85% 的用户举报恐怖主义和非法仇恨内容85% 是评估率,不是删除率
数据提交未来 12 个月向 Ofcom 提交季度表现数据数据是否可核验,决定监管有没有牙齿
举报系统与专家合作改进相关举报机制未说明人审、机审或混合审核,也未承诺主动搜索清理

Ofcom 的措辞也留了余地。它把这称为“向前一步”,但也说还有很多事要做。

这很像英国监管现在的打法:不急着把话说满,先把平台承诺固定下来。以后如果 X 做不到,季度数据、处理时限、举报比例,就会成为执法和罚款的抓手。

还有一条背景线不能混在一起。Ofcom 对 X 上 Grok 如何处理非法内容的单独调查仍在进行。此前 Grok 曾被用于生成非自愿裸露 deepfake。它不是这份承诺的一部分,但说明英国监管盯的不只是社交平台帖子,也包括平台内的 AI 工具。

这份协议硬在数字,虚在执行

48 小时、85%、季度数据,这些是硬处。平台过去最擅长说“我们重视安全”,现在至少要交出一张表。

虚处也很明显。X 只承诺加快处理用户举报内容,没有承诺主动搜寻相关内容。也就是说,很多东西要先被用户撞见、举报,才会进入流程。

这对英国普通用户的直接影响很有限,但不是没有。更可能发生的是:举报后的响应变快,部分账号在英国不可见。但用户不能据此期待“举报等于删除”,也不能期待平台会主动把所有有害内容扫干净。

对关注平台治理和内容审核的人,动作更具体:别只看 X 发了什么声明,要看季度数据怎么定义“已评估”。评估是否包括驳回?是否有复核?误判和漏判有没有口径?这些才是治理质量。

对做英国或欧洲合规的团队,这份承诺更像一个参照样本。举报入口、处理 SLA、审计留痕、专家协作,都要提前整理。尤其是有社交、社区、生成式 AI 功能的产品,不能等监管来敲门时才补流程。

一句老话很贴切:“天下熙熙,皆为利来。”平台不是天然反治理,而是治理很贵。审核、人力、申诉、复核、审计,样样烧钱。只要违法内容的外部成本主要由社会承担,平台就会倾向于少投入。

监管的作用,不是把平台教育成圣人,而是把成本记回平台账上。

真正要看 Ofcom 怎么查账

我不太买账“X 开始变温和”这种说法。

X 变的不是价值观,是外部约束。英国《在线安全法》把平台治理从口号拉回账本:多少举报、多久处理、怎么判断、谁来复核、错了怎么办。

这里还有一个现实约束。X 的问题不只是表态,而是执行能力。安全团队收缩之后,还要处理全球规模的实时内容流。规则可以写得很漂亮,执行端如果太薄,48 小时和 85% 就可能变成合规包装。

历史上很多基础设施都是这样被监管驯服的。铁路、电力、报业、电信,早期都喜欢把扩张说成自由,等影响足够大,账本、责任和处罚就会跟上。今天的社交平台不完全一样,但权力结构很像:规模越大,越不能只靠自我声明。

接下来只看几件事。

观察点为什么重要
“已评估”怎么定义决定 85% 是真处理,还是统计口径游戏
Ofcom 能否抽样核验只收平台自报,监管容易变成纸面合规
是否披露误判、漏判和复核机制没有纠错,速度越快也可能伤害正常表达
Grok 调查走向AI 工具会不会被纳入同一套安全账本

如果 Ofcom 只是收表,平台有太多办法把数字做得好看。入口可以变窄,分类可以变细,“已评估”可以写得很松。

如果 Ofcom 能抽样、追问、处罚,事情就不一样。平台治理会从“我承诺”进入“你证明”。

开头那个 85%,就卡在这里。它不是胜利,也不是作秀的全部。它是一张待核验的账单。