当全世界都开始问同一个 AI:人类会不会越聊越笨?

AI 不只是工具,它正在变成“陪你想问题的人”
过去两年,大家谈 AI,常常盯着效率:写邮件快了,做 PPT 省事了,查资料不用满网乱翻了。可真正更深的一层变化,其实是,AI 已经不只是“替你干活”的工具,而是在越来越多场景里,变成了“陪你一起想事情的人”。你拿它头脑风暴,跟它讨论战略,让它帮你润色判断,甚至在情绪低落时,也会问它一句“我该怎么办”。
这篇文章《AI-Assisted Cognition Endangers Human Development》抓住的,正是这个比“自动化”更隐蔽的变化:AI 正在介入人的认知过程。作者把它叫做“AI 辅助认知”,意思并不复杂——不是 AI 替你做决定,而是 AI 参与了你获取信息、组织观点、形成判断的整个过程。一本书当然也会影响人,但书是静态的;朋友也会影响人,但朋友是真正活着、会变化、会反驳你的。大模型尴尬就尴尬在,它看起来像一个会对话、会推理、会提出新点子的对象,实际上却又被预训练时刻牢牢钉在过去。
这就是今天最吊诡的地方。很多人已经把 AI 当“第二大脑”用了,可这个“大脑”的核心世界观,往往来自更早的数据切片。它能说出最新新闻,不等于它真的在“理解”最新现实。它会接住你的问题,也会给出流畅答案,但在很多关键议题上,它的底层惯性仍然偏向旧秩序、旧共识、旧叙事。你以为自己在和一个了解当下世界的聪明助手聊天,实际上你可能是在和一位知识渊博、表达得体、但思想时间停留在几个月甚至几年之前的人反复开会。
真正可怕的,不是 AI 说错,而是它让大家慢慢想得越来越像
作者举了一个相当激烈的例子:如果国际局势突然发生剧烈变化,而模型底座还停留在旧时代,那么它在讨论相关议题时,可能会下意识把现实当成“假设”“谣言”或者“不太可能发生的事”。这个例子本身带有作者鲜明的政治判断,是否准确可以讨论,但他指出的结构性问题并不难理解:大模型对“新现实”的吸收,远没有它展示得那么彻底。
很多用户已经体验过这种错位。明明你问的是今天的产业拐点、最新的监管信号、刚发生的地缘冲突,模型却总爱把讨论拉回更稳妥、更熟悉、更像训练语料里高频答案的那个方向。它不是完全胡说,它只是更容易回到“统计上最像过去”的那条轨道。这种偏移如果只发生在一次对话里,影响有限;可一旦它成了上亿人的共同认知搭子,问题就变了。
你可以把它想象成一个荒诞但形象的社会实验:全世界有相当一部分人,遇到职业困惑、产品设计、公共政策、科研设想、情感问题,都先去找同样几位“超级顾问”聊一聊。这几位顾问再聪明、再克制、再努力保持中立,他们也会天然把讨论往某些熟悉模式里带。久而久之,大家的表达越来越像,问题拆解的方式越来越像,连“什么算合理答案”都越来越像。作者把这种风险称为“认知近亲繁殖”。这个词很重,但我觉得他至少说对了一半:真正该警惕的不是 AI 替代思考,而是 AI 把思考压扁成少数几种常见模板。
这也是为什么“AI 有偏见”已经不够描述问题了。偏见像是错误答案,而更麻烦的是“范围收缩”——有些可能性、有些陌生角度、有些粗糙但重要的异见,还没来得及长出来,就已经在一次次顺滑对话中被抹平了。技术行业过去很喜欢说,AI 会帮助更多人获得智力平权;可另一面也在浮现:如果所有人都更容易得到同一种高质量、但相似度很高的建议,我们得到的也可能是“高级但统一”的平庸。
为什么这件事在 2026 年尤其值得警惕
放在 2023 年,讨论这个问题多少还有点超前,因为那时大家还在惊叹大模型能写诗、能写代码、能装懂。到了 2026 年,这个话题就不再只是哲学担忧了。AI 使用已经从尝鲜进入日常基础设施阶段:学生拿它整理思路,程序员拿它补全代码,记者拿它打草稿,经理拿它写战略备忘录,创业者拿它测试市场叙事。它不是某个部门的新鲜玩具,而是在一点点渗入社会的认知毛细血管。
这时再看“底模决定上限”这件事,就非常现实。今天市面上模型很多,聊天机器人名字也很多,但真正的基础模型并没有那么多,很多产品只是建立在少数底层模型之上的包装、微调和分发。表面上百花齐放,底下可能是同几棵树开的花。你问不同 AI,它们语气不同、性格不同、拒答策略不同,但在深层模式上,常常共享相似的知识组织方式和价值惯性。
这让我想起互联网早期的一种担忧:当所有人都通过同一个搜索引擎认识世界,排序规则就会影响知识入口。后来社交媒体时代,这个问题变成了推荐算法塑造公共议题。而在生成式 AI 时代,问题又往前走了一步:它不只是决定你“看到什么”,还参与决定你“怎么想”。搜索引擎像图书馆管理员,推荐算法像报刊编辑,大模型则更像一个直接坐到你脑子旁边、帮你一起写提纲的人。角色越靠近认知核心,影响也就越深。
作者文中提出一个有点学术、但颇有启发的概念,叫“动态辩证基底”。说白了,人类知识不是靠单个天才凭空蹦出来的,而是在无数人、无数情境、无数争论中不断碰撞、嫁接、修正。新思想往往不是直线推导出来的,而是某两个看似无关的旧概念突然“接上了电”。如果 AI 让越来越多人的概念组合方式趋同,那些低概率、跨领域、甚至一开始显得古怪的连接,就更容易消失。这对科学、文化、政治判断,都是坏消息。
我们该少用 AI 吗?未必,但要学会一点“认知卫生”
我不太赞成把问题简单导向“那就别用 AI 了”。这就像发现导航会让人路感变差,于是主张大家回到纸地图时代,听上去很硬气,做起来很不现实。何况 AI 的确能扩展普通人的知识触达范围,能降低表达门槛,也能在不少时候激发灵感。问题不在于用不用,而在于怎么用,尤其是别把它误当成中立、完整、实时、无损的思维合伙人。
作者给出的建议里,我觉得最有价值的反而最朴素:多和真人聊。原因很简单,真人会打断你、误解你、反驳你、带偏你,甚至惹你生气,但恰恰这些不顺滑的部分,才是真正能拓宽认知边界的摩擦力。AI 最大的诱惑之一,是它太配合了。它几乎永远愿意接你的话,愿意顺着你的问题往下推演,愿意把你的想法整理得更像样。可思想不是客房服务,不是你按铃它就端来一盘恰到好处的结论。很多重要的判断,偏偏诞生在笨拙、混乱、跑题甚至争执里。
在直接使用 AI 的层面,比较现实的做法是把它更多当作“检索放大器”而不是“结论机器”。让它帮你找资料、列出处、梳理争议面,比直接让它给最终答案更安全。另一招是故意制造认知多样性:别只用一个模型,别只问一种提示词,别让它永远扮演你最喜欢的那个“靠谱同事”。有时甚至可以让它站到你反对的一边,逼自己看看盲区。但说到底,这些都只是缓解,不是根治。因为只要底层世界模型相近,输出的边界终究会在某个地方重新收拢。
还有一个常被忽视的问题,是“无形拒答”。很多人只盯着显性的安全审查,比如模型明确说“我不能回答这个”。可更隐蔽的,是模型根本不把某条思路展开,不主动通向某些方向,让你感觉“好像也没什么别的可能”。这类问题最麻烦,因为用户通常察觉不到自己错过了什么。一个错误答案还可以被纠正,一条从未进入视野的路径,却连遗憾都不会留下。
比模型偏见更大的问题,是我们会不会把思考的野性弄丢
这篇文章当然有它的局限。作者的一些例子和政治设定相当激烈,部分论证仍停留在推演和预警层面,离严格意义上的因果证明还有距离。我们确实没法像做实验那样,拿两个平行世界来比较:一个世界的人类高度依赖 AI,另一个世界的人类完全不碰 AI,然后看哪边文明发展得更快。关于“AI 会让人类错过多少发现”,今天谁都给不出精确答案。
但我依然认为,这篇文章提出了一个非常有价值的问题:如果智能时代的核心资源不再只是算力和数据,而是“认知的多样性”,那我们现在的路径是不是有点危险?大模型公司都在拼更强、更快、更便宜,可很少有人把“不要让全社会越来越像同一个脑回路”当成产品指标。商业逻辑天然偏爱规模化、可复制、稳定输出,而思想进化偏偏需要噪声、异类、偏航和偶然。
换句话说,AI 最该帮助人类的,也许不是更快地产生标准答案,而是保住那些非标准、非主流、暂时没用但可能改写未来的想法。可这恰恰是今天主流产品最不擅长的地方。它们追求的是可靠、有礼、通顺、可控;而许多真正重要的思想,早期往往不可靠、不礼貌、不通顺,也不可控。
这让我有一点并不轻松的感觉:也许未来最稀缺的能力,不是会不会用 AI,而是能不能在天天使用 AI 之后,仍然保住独立思考的肌肉,保住与真人争论的耐心,保住对陌生观点的不适感。毕竟,人类进步从来不是因为所有人都更高效地重复昨天,而是因为总有人偏要从一个奇怪的问题开始,去怀疑那个看起来最顺滑的答案。