Google DeepMind 高级科学家 Alexander Lerchner 写了一篇论文,标题很直白:《The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness》。他的判断是:AI 和计算系统可以模拟有意识的行为,但不能真正生成意识。
这个说法最有意思的地方,不是它来自某个外部批评者,而是来自 DeepMind 内部研究者。论文也写明不代表 DeepMind 官方立场,Google 没有回应媒体置评请求。404 Media 还提到,论文 PDF 曾移除 Google 品牌元素,并把免责声明放到更前面。
这件事不能被读成“DeepMind 宣布 LLM 永远做不出 AGI”。Lerchner 仍承认,非有意识的 AGI 可能存在。
我更在意的是另一层:当 DeepMind CEO Demis Hassabis 仍公开强调 AGI 的巨大影响,甚至说可能达到“工业革命的 10 倍、速度也快 10 倍”,自家研究者却在理论上拆掉了一个常见跳跃——像人一样说话,不等于像人一样有内在体验。
论文反对的是“抽象谬误”:会演,不等于有心
Lerchner 的核心概念叫“abstraction fallacy”,可以译成“抽象谬误”。
意思是,不能因为 AI 能操纵符号、语言和图像,能表现出理解、意图和对话能力,就推断它拥有意识。
他的论证抓住一个基础问题:AI 处理的世界,已经被人类抽象过。人类把连续、复杂、充满身体经验的世界,切成可标注、可训练、可计算的状态。模型是在这些抽象上工作。
大模型吃进去的文本、图像标签、人工反馈,都来自人类经验。它可以在这些材料上组合出很强的表现,但这不等于它有自己的需求、痛感、饥饿、恐惧,或维持生命的内在压力。
这个区分很重要。因为很多 AGI 叙事会故意把几个层次揉在一起:能力、智能、主体性、意识。听起来像一条直线,实际不是。
| 讨论对象 | Lerchner 的判断 | 读者应怎么理解 |
|---|---|---|
| LLM 对话能力 | 可以模拟理解和意图 | 不等于有主观体验 |
| 数据与标签 | 依赖人类抽象和分类 | 意义主要来自外部赋予 |
| 身体与需求 | 缺少生物体的内在压力 | 主体性不能直接类比生命 |
| AGI | 非有意识 AGI 仍可能存在 | 意识争议不等于 AGI 彻底破产 |
所以,这篇论文不是在说 AI 没用,也不是在说模型能力都是骗局。它说的是另一件事:模型越像人,越要小心“以貌取心”。
古话说“形似而神异”。放在这里刚好:行为像,不代表内在机制一样。
外部学者认可方向,但认为这不是新发现
外部学者对论文的态度不是简单站队。
演化系统生物学家兼哲学家 Johannes Jäger、伦敦大学金史密斯学院认知计算教授 Mark Bishop 都认为,Lerchner 的论证方向大体成立。也就是说,单靠符号操作和行为模拟,很难推出意识存在。
但他们也指出,这些观点在哲学、生物学和意识研究里已经讲了多年。Lerchner 的论文被批评的地方,不是结论完全站不住,而是引用旧有文献不够充分。
这点反而让事情更微妙。
如果这是一篇外行奇谈,可以很快略过。可它既来自 DeepMind 高级科学家,又踩在多年意识研究的老问题上,就会把一个尴尬摆到台面上:AI 公司讲 AGI 时,常常喜欢借用“接近人类”“具备理解”“会自主行动”这些词,但真正进入意识问题,学术传统并不允许这么快跨过去。
这里也有现实限制。Lerchner 的论文不能证明所有未来系统都没有意识,也不能替监管直接画线。意识本来就没有一个所有学科都接受的单一判准。
但它至少提醒读者:如果一家公司把模型表现直接包装成“新主体”或“新物种”,中间缺了很多论证。
真正受影响的,是靠 AGI 预期讲故事的人
短期看,企业采购 AI 工具不会因为这篇论文立刻停摆。
企业买模型,通常看四件事:成本、准确率、稳定性、合规。客服系统能不能降本,代码助手能不能提效,知识库问答能不能少出错,这些都不取决于模型有没有主观体验。
但对两类人,影响会更具体。
| 对象 | 原来容易怎么想 | 现在更该怎么做 |
|---|---|---|
| 企业采购和技术负责人 | 按“通向 AGI”的承诺提前押注 | 把项目拆回 ROI、数据安全、可替换性评估 |
| 开发者和产品团队 | 围绕“模型会越来越像人”设计长期路线 | 把模型当高性能工具,保留人工审核和降级方案 |
| 投资人和政策观察者 | 用 AGI 叙事解释高估值或监管例外 | 区分能力进步、商业收入、主体性主张 |
最现实的动作不是“停止用 AI”,而是少为神话付费。
企业可以继续试点,但不必因为“AGI 很快到来”就提前绑定单一供应商。开发者可以继续接入前沿模型,但要把系统设计在可替换、可审计、可回滚的基础上。投资人看 AI 公司,也该把模型收入和 AGI 口号分开算。
这也是 Lerchner 论文刺痛 AGI 生意经的地方。
DeepMind 的公开叙事仍在强调 AGI 的巨大影响。公司也曾招聘“post-AGI”研究科学家岗位。这些表述会给外界一种时间感:AGI 很近,甚至公司已经在为 AGI 之后做准备。
但 Lerchner 的论文把另一套话摆出来:即便系统越来越强,也不能从行为模拟直接跳到意识存在。换句话说,商业叙事在加速,理论论证在刹车。
这不是 DeepMind 官方改口。证据还不够。
目前能看到的是,大公司对这类议题很谨慎:允许研究者发表判断,但又不愿被市场解读成公司立场。PDF 品牌元素变化,就是一个边界信号。
接下来最该看三件事。
一是 DeepMind 是否继续公开展示这类论文。二是 Hassabis 等高管会不会收紧 AGI 表述,少用接近生命体的语言。三是公司在招聘、产品路线和安全研究里,还会不会继续使用“post-AGI”这种时间感很强的词。
如果宣传继续升温,论文继续降温,读者就该把两套语言分开看。一套服务科学讨论,一套服务融资、监管和市场预期。
回到开头那个问题:AI 能不能“像有意识一样表现”?答案已经越来越接近“能”。但能演到什么程度,和有没有心,是两回事。
