Simon Willison 5 月 11 日在个人博客发布的一则 link post,把 Jason Koebler 对 AI 写作泛滥的批评推到更多技术读者面前。Willison 不是原始长文作者,他的角色是转引和评论;真正提出“Zombie Internet”这个判断的,是 Koebler。
这篇文章的核心不在于“AI 内容是否存在”。这一点早已无需争论。更关键的变化是,AI 生成内容已经从明显的垃圾邮件、低质 SEO 页面,进入社交平台、评论区、视频频道、图书市场和个人写作风格之中。用户不再只是过滤广告,而是在判断对面到底是不是一个真实的人。
从 Dead Internet 到 Zombie Internet,问题变得更难处理
“Dead Internet”常被用来形容机器人对机器人说话的网络:自动账号发布内容,自动账号点赞、转发、评论。Koebler 所说的“Zombie Internet”更麻烦,因为它不是全网都变成机器人,而是人和 AI 混合发声。
| 概念 | 典型场景 | 真正难点 |
|---|---|---|
| Dead Internet | bots 对 bots,机器账号互相制造流量 | 垃圾信息可被归类、屏蔽、降权 |
| Zombie Internet | 人用 AI 写给人看,AI 代理替人互动,营销号伪装真人 | 身份、动机和写作来源变得难以判断 |
Koebler 举的例子很具体:有人创建 AI 代理,让它们去和真人互动;“AI 网红”教程催生自动化 YouTube 频道、博客和社交账号;X 和 LinkedIn 上充斥着像真人经验帖的营销内容;Reddit 上有人向看似真诚的账号倾诉,背后可能是营销公司;还有 AI 对真实图书的摘要,被包装成原书出售。
这比传统垃圾内容更伤人。传统垃圾信息像路边小广告,烦,但容易识别。现在的问题是,一段措辞体面、情绪充足、结构完整的内容,也可能只是批量生产的拟态文本。读者每多做一次判断,信任就被磨掉一点。
AI 写作的伤害不只在“低质”,还在反向污染人类表达
批评 AI 垃圾内容,不等于否定所有 AI 辅助写作。用大模型整理资料、润色邮件、生成提纲,本身可以提高效率。问题出在平台激励把“看起来像人写的内容”变成规模化商品。
这也是原文没有完全展开、但最该被看见的限制:技术本身并不会自动制造僵尸互联网,真正放大它的是分发机制和变现机制。X 的订阅与流量激励、YouTube 的频道变现、LinkedIn 的职业人设、Reddit 的社区信任、亚马逊等图书市场的上架机制,都给低成本内容提供了可套利空间。Google 2024 年把 AI Overviews 推向美国搜索结果,也说明信息入口正在接受机器摘要成为默认层。
受影响最直接的是两类人。
一类是普通读者。过去搜索一个产品、一本书、一次职业建议,读者主要比较信息是否准确;现在还要判断内容是不是人类经验、商业投放,还是 AI 拼接。这个额外步骤不会显示在账单上,却会消耗时间和耐心。
另一类是创作者。真正写作的人会发现,平台上越来越多内容采用相似的 AI 腔:段落匀称、情绪适中、结论圆滑。更麻烦的是,人类作者为了显得“高效”和“专业”,也可能被迫向这种格式靠拢。到最后,AI 不只是模仿人,人也开始模仿 AI。
平台接下来要回答的是身份问题,不只是内容质量问题
平台过去处理垃圾内容,主要靠关键词、举报、账号权重和反作弊。Zombie Internet 的难点在于,很多内容并不违法,也未必低质。它可能有帮助,但它隐瞒了生产方式、商业动机或账号身份。
接下来最该观察的不是“AI 内容比例是多少”。目前公开材料不足以支持可靠估算,硬编数字反而会误导判断。更现实的观察点有三个:平台是否要求标注 AI 生成或 AI 辅助内容;搜索和推荐系统是否降低批量生成账号的权重;图书、视频、职业社交平台是否加强对冒名、摘要冒充原作、营销账号伪装真人的治理。
这场争议也给内容创作者一个现实提醒:以后真正稀缺的未必是“写得像专业文章”,而是可验证的来源、真实经历、愿意署名负责的判断。机器能补句子,不能替人承担信誉。
