斯坦福敲响警钟:AI 圈越兴奋,普通人越焦虑,这道裂缝正在变深

人工智能 2026年4月14日
斯坦福敲响警钟:AI 圈越兴奋,普通人越焦虑,这道裂缝正在变深
斯坦福最新 AI Index 报告揭开了一个越来越刺眼的现实:AI 从业者谈论的是 AGI、超级智能和技术跃迁,普通人担心的却是工资、医疗和电费。问题不在于公众“不懂技术”,而在于 AI 行业长期用自己的语言讨论一场本该属于全社会的变革。

当 AI 圈还在讨论“超级智能”,公众已经开始担心下个月账单

斯坦福大学最新发布的 AI Index 报告,把一件很多人隐约感觉到、却很少被正面承认的事摆到了台前:AI 专家和普通公众,对这项技术的看法正在越走越远。

在美国,这种分裂尤其明显。报告显示,围绕 AI 的焦虑感正在上升,人们最担心的并不是什么科幻电影里的“机器觉醒”,而是更接地气的几件事:工作会不会被替代,医疗服务会不会被算法搞砸,整个经济会不会变得更不稳定。换句话说,硅谷在谈未来,人们在算现实。

这份报告出来的时间点也很微妙。就在前几天,盖洛普一项调查刚显示,Z 世代对 AI 的情绪正在变差:希望减少,愤怒增加。这个结果之所以刺耳,是因为年轻人恰恰又是 AI 工具的高频用户。也就是说,大家一边用,一边不安;一边依赖,一边怀疑。这不是简单的“反技术”,而是一种非常当代的情绪:我知道它有用,但我不确定它是不是站在我这边。

公众不是害怕天网,他们是害怕失去体面生活

很多 AI 公司高管这些年最热衷讨论的,是 AGI,也就是所谓“通用人工智能”。这个词听上去宏大、前沿,也很适合出现在大会演讲、融资材料和播客访谈里。但普通人对 AGI 的兴趣,远没有房租、医保和就业来得迫切。

这也是为什么不少科技圈人士会对越来越强烈的“反 AI 情绪”感到意外,甚至有点委屈:我们明明在做改变世界的事,怎么大家不鼓掌,反而皱眉?问题恰恰出在这里。AI 行业常常默认,技术进步本身就天然值得欢迎;可对普通人来说,技术进步如果先带来岗位压缩、服务失误、教育焦虑和电价上涨,那它就不是“进步”,而是压力源。

TechCrunch 在报道中提到,随着高耗能数据中心不断建设,公众对于 AI 基础设施的反感也在升温。这一点非常关键。AI 不是漂浮在云端的魔法,它需要真实世界的土地、电力、水资源和政策配套。一个聊天机器人背后,可能是成片机房、巨额电费和本地社区对资源被挤占的不满。当行业在兴奋地谈模型参数时,社区居民看到的可能只是更吵的施工现场和更贵的公共事业账单。

说得更直白一点,很多人并不是反对 AI 本身,而是反对自己在这场变革里只承担代价、却分不到收益。

社交媒体上的撕裂,只是现实情绪的外溢

这道裂缝最近甚至在更激烈的事件中显形。报道提到,在 OpenAI CEO 萨姆·奥尔特曼住所遭袭之后,社交平台上出现了一些令人不安的评论,部分 AI 圈内人士对此感到震惊,因为他们发现,网络上竟然有人公开对这类攻击表达某种程度的叫好。

当然,任何针对个人的暴力和恐吓都不该被合理化,这条底线不能模糊。但这个事件带来的另一个信号也很清楚:一些 AI 公司的公众形象,已经不只是“技术先锋”,而开始被一部分人投射成财富、权力和失控技术的混合象征。奥尔特曼、马斯克、黄仁勋、扎克伯格这些名字,在媒体叙事里早已不只是企业家,也像是站在新一轮技术浪潮浪尖上的“代言人”。当公众对技术变革感到无力时,情绪往往会集中投向这些最显眼的人。

社交媒体放大了这种情绪,但它并不是凭空制造出来的。过去几年,我们已经在多个领域见过类似场景:网约车平台改变劳动关系时,先出问题的是司机收入;短视频平台改变内容生态时,先失衡的是创作者和广告市场;生成式 AI 爆发后,最先感到不安的是设计师、客服、初级程序员、翻译和文案。技术红利常常先被资本市场计价,技术阵痛却先由普通劳动者体验。

所以,今天这场围绕 AI 的舆论冲突,本质上不是“懂技术的人”和“不懂技术的人”在吵架,而是“定义未来的人”和“承受变化的人”之间,越来越难以共情。

行业最大的风险,不是模型失控,而是叙事失控

如果把视野再拉大一点,会发现这份斯坦福报告的重要性并不只是情绪调查本身,而是它在提醒行业:AI 现在面临的最大问题之一,可能不是技术做不到,而是社会不再愿意无条件相信它。

回头看互联网和移动互联网的发展,公众虽然也有隐私、垄断、成瘾等担忧,但在早期,主流感受总体上还是“它让我更方便了”。而今天的生成式 AI,从一开始就带着更复杂的情绪进入大众生活:它既能帮你写邮件、改简历、做作业,也可能替代你的岗位、污染信息环境、制造深度伪造、吞掉原创内容的价值。它不是单向度的“便利工具”,而是一个直接碰撞分配结构的系统。

这也是为什么我认为,AI 公司如果继续沿用过去那套“先快速扩张,再慢慢修补社会关系”的互联网打法,代价会越来越高。监管压力会变大,地方社区对数据中心的抵触会增强,教育系统和内容产业的防御心理也会更重。你可以把模型做得更强,但如果社会信任在流失,商业化道路只会更崎岖。

某种意义上,今天 AI 行业缺的不是更多“改变世界”的口号,而是更诚实的社会契约。比如,谁会因为 AI 失业,谁会因为 AI 获利?企业愿不愿意为再培训买单?医院、学校、政府部门引入 AI 时,出错责任谁来承担?本地社区为数据中心付出的能源和环境成本,如何获得补偿?这些问题很土,很不性感,也不适合做发布会海报,但它们决定了 AI 最终会被当作工具、伙伴,还是威胁。

真正的考验,是让普通人也能成为 AI 时代的受益者

这份报告最让我在意的一点,不是“公众越来越焦虑”,而是这种焦虑其实并不盲目。很多人说大众对 AI 有误解,我倒觉得,公众常常比行业更早感知到技术落地后的真实摩擦。办公室里的白领会敏锐察觉哪些岗位正在被重写,家长会很快发现学生作业和考试体系被冲击,社区居民会先看到新建数据中心如何改变电力分配和地价预期。

AI 当然不会停下。OpenAI、Google、Anthropic、Meta 还会继续卷模型能力,微软和亚马逊还会继续砸钱扩基础设施,苹果也会试图把 AI 包装成更温和的终端体验。问题从来不是“要不要 AI”,而是“谁来决定 AI 以什么方式进入社会”。

如果行业真的想缩小这道鸿沟,最需要做的不是再讲一遍“AI 将提升生产力”,而是拿出更具体的答案:它究竟提升谁的生产力,又牺牲了谁的议价能力?它让哪些人过得更好,哪些人变得更不安?当这些问题得不到回答时,所谓的技术乐观主义,只会越来越像少数人的内部共识。

从记者角度看,这也是 AI 进入下半场的标志。上半场比的是谁的模型更强、融资更多、估值更高;下半场比的则是谁能在不撕裂社会的前提下,把技术真正安放进现实生活。那将是一场更慢、更难、也更重要的竞争。

Summary: 斯坦福这份报告真正敲打的,不是公众情绪,而是 AI 行业的自我认知。技术圈如果继续沉迷于“能力边界”叙事,却回避就业、医疗、能源和分配问题,公众的不信任只会继续累积。我判断,未来两三年,AI 竞争的胜负手不只在模型性能,还在谁更能处理社会后果。真正活下来的,不一定是最会讲 AGI 故事的公司,而是最先学会对普通人说人话、办人事的公司。
AI Index 报告斯坦福大学公众焦虑AGI人工智能就业替代社会裂缝盖洛普Z 世代超级智能