当AI开始挤压现实生活,愤怒就不再只停留在网上

人工智能 2026年4月12日
当AI开始挤压现实生活,愤怒就不再只停留在网上
围绕AI的争议,正在从论文、社交媒体和政策辩论,外溢到更危险的现实世界。OpenAI、数据中心和AI高管接连成为威胁对象,这不只是个别极端事件,而是一个信号:如果技术变革的成本被普通人切身感受到,愤怒很可能先落到“看得见的人”身上。

从砸织布机到冲着人去,技术冲突进入更危险阶段

这篇文章最刺痛人的地方,不是它写了多少关于AI的老生常谈,而是它提醒我们:技术革命从来不只是技术问题,它最后总会变成人的问题,甚至是肉身的问题。

19世纪工业革命时,卢德分子砸毁织布机,后来成了很多人嘴里的“反进步”符号。但如果你把那段历史从经济学教材里拽回街头,会发现事情远比“落后的人反对先进机器”复杂得多。织布机不是抽象概念,它意味着饭碗、工资、工作秩序和尊严被重写。今天的AI也一样。大模型、智能代理、自动化办公,这些词在发布会上听起来像未来,在许多人耳朵里却像裁员预告。

原文提到,近来围绕OpenAI、数据中心和支持相关项目的地方官员,已经出现了纵火、枪击威胁和恐吓事件。Sam Altman住宅遭燃烧瓶袭击未遂,支持数据中心建设的印第安纳波利斯地方议员住宅被连开十几枪,OpenAI旧金山办公室也曾因暴力威胁进入封锁。把这些放在一起看,它们不是同一事件,却像同一种情绪的不同出口:当真正令人生气的对象变得太庞大、太抽象、太难触碰,人们就会转向那些“离得最近的人”。

这事让我想到一个有点残酷的现实:你很难“摧毁AI”。它不只是某一台服务器,不只是某一个机房,更不是某一个CEO。但你可以找到一个房子、一辆车、一个地方议员、一家本地施工中的数据中心。技术越抽象,报复就越具体。

AI行业最危险的失误,不是造得太快,而是说得太轻巧

这波风险,AI公司并非完全无辜。不是说暴力可以被合理化——当然不能——而是说,行业在沟通方式上确实像踩着油门往火堆里倒汽油。

过去一年,Altman、Anthropic CEO Dario Amodei,以及一众AI公司高管反复公开讨论一个信息:AI会深刻重塑白领工作,许多岗位会消失,社会需要适应。这话从战略角度看也许诚实,从传播效果看却近乎灾难。因为普通人听到的不是“产业升级”,而是“你的职业可能没了,而且我们已经先走一步”。更尴尬的是,很多公司一边售卖“效率革命”,一边按月收订阅费,一边敦促社会尽快适应。对投资人来说,这叫增长叙事;对焦虑中的劳动者来说,这像一封包装精美的失业通知。

AI行业有一种奇怪的自我意识:它一边不断宣称自己的技术会无比强大、无所不在,甚至可能带来文明级风险;一边又惊讶于公众为什么把一切坏事都怪到AI头上。可问题是,叙事本身会塑造现实。你天天说“这玩意儿很快会改变所有行业”,人们当然会把裁员、降薪、招聘冻结、内容泛滥、教育质量下滑,统统往AI头上安。

这甚至已经开始成为企业管理中的“万能借口”。很多裁员并不完全由AI造成,但“AI替代”是一个比“我们想缩减成本”更体面的说法。于是,AI不光是一种技术,也慢慢变成了一个替罪羊。它吸收了真实的担忧,也吸收了并不准确的怨气。久而久之,公众分不清哪些问题真是AI造成的,哪些只是老板、市场和政策共同制造的。情绪不会做因果分析,情绪只会找出口。

数据中心不是云,它是社区里的水、电、噪音和地产

如果说高管住宅遇袭是情绪对“人”的投射,那么围绕数据中心的冲突,则是AI与现实地理空间碰撞的结果。

很多人对AI基础设施的想象停留在“云端”,仿佛它们轻飘飘地悬在天上。但现实中的AI,最终要落在一栋栋吃电、吃水、占地、排热、发噪音的建筑里。美国、英国、中东这些地方这两年频繁出现数据中心争议,本质上和过去工厂、化工园区、垃圾处理设施进入社区时引发的阻力没太大区别。只不过这次盖的是服务器,不是烟囱。

居民的反对并不总是出于技术恐惧。有时是担心水资源紧张,有时是不满土地被大型科技项目锁定,有时则是对“本地承担成本、外部拿走收益”的反感。对一个普通社区来说,AI不是论文里那个会写代码的助手,而是卡车进出、工地施工、电力改造、房价波动,以及“这里以后是不是只剩机房”的不安。

这也是为什么这类新闻在今天格外重要。AI讨论正在从产品体验、模型能力,转向基础设施政治。谁能拿到电?谁能优先接入电网?谁的土地被征用或高价收购?谁承担环境与治安压力?谁真正从AI繁荣中获利?这些问题比“模型参数多少”要现实得多,而且会越来越频繁地出现在地方议会、社区听证会和治安简报里。

说白了,AI时代的社会摩擦,未必先爆发在代码层,往往先爆发在供电局、规划审批和居民区门口。

公众真正害怕的,不是超级智能,而是被未来开除

关于AI风险,科技圈最爱谈的是“超级智能失控”。这类话题刺激、宏大、适合上头条。但从社会情绪来看,人们更直接的恐惧可能没那么科幻:不是AI统治世界,而是自己先被世界淘汰。

当一个人觉得自己还有工作、有收入、有迁移机会、有再学习的路径时,焦虑通常还能被消化。可一旦这种感受变成“我的技能突然不值钱了,我买不起东西了,没人需要我了”,局面就会迅速恶化。历史上大多数技术冲突,并不是因为机器本身太邪恶,而是因为过渡期被处理得太粗暴。机器来了,制度没跟上;生产率涨了,安全网没跟上;利润兑现了,补偿机制没跟上。

今天AI最麻烦的地方在于,它瞄准的不是单一行业,也不是重复劳动最重的工种,而是大量受过教育、习惯于把“脑力劳动”视作安全区的人群。程序员、设计师、客服、法务、营销、媒体、翻译、行政,这些职业过去都觉得自己离自动化还有点距离。结果现在,大模型不一定做得完美,但已经足够让老板在预算表上动心。这就造成一种非常不稳定的心理落差:你不是被一个更便宜的人替代,而是可能被一个永远在线、不会抱怨、还能不断升级的系统压价。

所以,原文里有一句话虽然尖锐,却抓住了问题核心:一旦人们觉得自己在未来社会里“没有位置”,暴力风险就不再是道德教育能完全解决的事,而会变成秩序问题。我们当然应该谴责每一次袭击和恐吓,但如果只谴责而不处理背后的失序感,那就像在漏水的屋顶下不断拖地。

AI公司现在最该做的,不是再讲愿景,而是拿出过渡方案

技术公司喜欢说自己“在创造未来”,这句话以前听起来很燃,现在多少有点让人后背发凉。因为未来不是PPT,它会真的落到薪资单、房贷、学校教育和地方财政里。

如果AI行业不想看到更多现实冲突,最需要补上的不是更宏大的使命叙事,而是具体、可执行的社会过渡安排。比如,企业到底会在哪些岗位先引入AI代理?员工有多少重新培训和岗位转移空间?由AI驱动的效率收益,是否会回流到工资、培训基金或社区投资?地方政府在批准大型数据中心时,能否要求更透明的资源占用与回馈机制?这些问题听起来不性感,却比“AGI何时到来”重要得多。

媒体在这里也得小心。我们不能一边夸大AI无所不能,一边在每一次社会冲突后假装惊讶。把AI写成神,也会把公众推向极端。它既不是全能救星,也不是万恶之源。它是加速器,会放大原本就存在的分配问题、劳动力焦虑、基础设施矛盾和权力不平衡。

说到底,技术革命最怕的不是反对声音,而是那种慢慢凝结的集体绝望。今天的几起极端事件也许还只是零星火花,但真正让人不安的是,它们已经给出了轮廓:当算法越来越难触碰,人们会去触碰那些被视为算法代理人的人。那不是AI的胜利,也不是社会的成熟,而是一次很老派、很人类的失败。

如果AI公司仍然坚持用“不可避免”来描述一切,那公众迟早会用“谁来负责”作为回应。这个问题,谁都绕不过去。也许比起继续向世界解释模型有多聪明,他们更该先回答一句很朴素的话:在你们定义的未来里,普通人到底还站在哪里?

Summary: 我判断,围绕AI的社会冲突在未来两年大概率会继续上升,尤其是在数据中心落地、白领岗位重组和地方资源分配这三个层面。真正的危险不在于几次孤立的极端事件,而在于行业仍把公众焦虑当作传播噪音,而不是治理信号。如果AI企业拿不出可见的过渡方案,反AI情绪就会从舆论场进一步进入治安与地方政治,届时再谈“技术向善”,就太晚了。
AI社会冲突OpenAI技术变革成本数据中心Sam Altman大模型自动化办公就业替代暴力威胁卢德主义