AI 现在的尴尬,已经很难再用“大家还没理解它”来解释。

The Verge 这期《Decoder》给了一个很准的框架:科技行业习惯用一种“software brain”看世界。这个词不是学术术语,是主持人 Nilay Patel 自己压出来的概念。意思很简单:凡事都想拆成数据库、规则、指令和循环,于是相信只要数据够多、接口够通、模型够强,现实就会像软件一样听话。

问题是,软件会执行,人不会。

美国几组民调已经把这个裂缝摆在桌面上。NBC News 的调查显示,AI 的好感度很差;Quinnipiac 的调查里,超过半数美国人认为 AI 害处大于益处,八成以上的人对它“非常担忧”或“有些担忧”,真正感到兴奋的只有 35%。Gallup 的数据更扎眼:Gen Z 是最常用 AI 的人群之一,但对 AI 的希望感还在下降,愤怒感却在上升。

这至少说明一件事:问题不只是陌生感。很多人不是没用过,而是用过之后更烦。

公众为什么不买账:不是没教育好,是代价先落到人头上

科技高管其实知道 AI 不受欢迎。微软 CEO Satya Nadella 说,行业需要赢得消耗能源的“社会许可”。Sam Altman 也直接把 AI 说成“史上最不受欢迎的政治候选人”之一,觉得还需要更好的营销。

我不太买账的就在这儿。把反感解释成“宣传没跟上”,太轻了。用户每天都在直接体验 AI:ChatGPT 周活用户已到 9 亿并朝 10 亿去,Google 搜索里的 AI Overviews 很多人都见过,信息流里也早就塞满了 AI 生成的垃圾内容。你不能指望广告把人的亲身体验洗掉。

更硬的矛盾有三层,而且都不是文案能解决的。

争议点行业说法用户或社区实际感受更像什么问题
AI 不受欢迎营销不够,社会许可不足工具越常见,体验越吵越乱产品体验先失分
数据中心扩张算力投资、技术基础设施社区先承受能耗、土地、水和噪音压力成本收益错配
AI 进办公场景提效、增强协作初级白领更早感到岗位收缩利益分配失衡

这也是为什么地方对数据中心的阻力越来越敏感。原文提到,美国两党都有政客反对数据中心建设;支持数据中心的地方政治人物会在选举里受冲击,甚至出现对相关人物的暴力威胁。这里要说清楚:这种暴力完全不可接受,也不该被合理化。

但情绪从哪来,不能装看不见。行业一边要求社会为它提供能源、土地和监管空间,一边又不断放话说 AI 可能先替掉一批初级白领岗位。Anthropic CEO Dario Amodei 对入门级金融、咨询、科技岗位收缩的担忧,就是这种信号。普通人听到的不是“生产力进步”,而是“你的工作先让出来”。

“天下熙熙,皆为利来。”企业想省人成本、扩控制半径,不稀奇。稀奇的是,总有人把这套算盘包装成一种人人都该欢迎的公共福音。

“software brain”的边界在哪:数据库不是现实,规则系统也不是代码

Nilay Patel 这期里举了两个很关键的边界案例。

一个是 DOGE 式的政府数据库迷信。思路很软件:先接管系统,再抓住数据,然后就能改造现实。结果撞上的却是行政流程、历史包袱、部门关系和执行摩擦。数据库记录的是世界的一部分,不是世界本身。把表格当现实,结局通常是拿现实去迁就表格,最后把事情做歪。

另一个是法律系统。代码和法律很像,都依赖结构化语言、规则和先例,所以 AI 公司特别爱讲“律师也会被替代”。原文还提到一位前密歇根州最高法院首席大法官,曾在节目中主张用全自动 AI 仲裁系统处理争议。

这类想法为什么诱人?因为它看起来干净、稳定、可验证。

但法律最核心的东西,偏偏不是确定性,而是解释、裁量和灰度。判例能参考,不等于结果可像代码一样精确复现。社会也不是一台输入事实、吐出正确答案的机器。要是把争议解决系统压成自动化流程,很多复杂性不是消失了,只是被藏起来了。

这就是“software brain”的上限。它在企业内常常有效,在社会面却经常失灵。因为企业能统一工具、统一数据、统一流程,还能要求员工配合系统;社会做不到。人不是 API,制度也不是脚本。

AI 会先在哪儿赢,普通用户又该怎么看

这篇播客不是反 AI。相反,它承认了一个现实:AI 在企业流程里有真价值,而且还会继续赢。

原因也不玄。凡是长得像“代码对数据库反复发指令”的流程,都是 AI 最容易吞掉的地方。报表生成、客服总结、合同初审、销售线索跟进、内部文档整理,这些都已经很像软件在处理软件。Anthropic 长期盯企业客户,OpenAI 也在往商业场景倾斜,不是偶然。

但这套逻辑往外推,就容易撞墙。普通人没必要,也未必愿意,把自己的生活改造成一组持续可读、可调度、可联动的数据源。邮件在 Gmail,消息在 iMessage,日程在 Outlook,健身在 Peloton。它们彼此不通,本来就很正常。要求用户把这些都接起来,交给 AI 持续读取,很多人第一反应不是“真方便”,而是“你管得太宽了”。

原文还点到一个很尖的现实:要让 AI 真正变强,就得先让自己对 AI 更可见。Ezra Klein 对硅谷从业者的描述很到位——他们不仅在使用 AI,还在主动把自己压平到数据库里,让 AI 更容易理解和代理自己。

这件事对两类读者最有现实意义。

对长期关注 AI、平台治理和产业叙事的人,这不是“公众反技术”,而是一次利益分配的对账。接下来别只看模型分数,要盯三件事:地方数据中心项目还会不会继续受阻;企业自动化先砍掉哪些入门岗位;产品里的 AI 功能究竟提高了完成度,还是只是把噪音提前塞给用户。

对互联网从业者和重度用户,动作层更直接一些。如果你在采购或部署 AI 工具,先问清两件事:它到底替你省了哪一步,还是只是新增了审核成本;它需要读多少内部数据,出了错谁背锅。如果你是普通用户,也别急着把邮箱、日历、消息、云盘一次性全喂给某个“智能助手”。先局部试,用完能关,数据权限能收回,再谈长期绑定。

很多技术都会要求社会适应它。铁路、电力、互联网都干过这事。但它们给普通人的净收益足够直观,所以摩擦虽大,方向还算清楚。今天不少 AI 产品给普通人的,却是更糙的搜索、更脏的信息流、更重的监控感。收益不够硬,索取却先到位,当然会惹人烦。

所以我更愿意把这轮反弹看成一次边界测试:企业内部自动化会继续扩张,社会对“把人做成数据库”的配合度却未必高。技术能往前推,不等于人愿意往里交出更多自己。

市场最后会替大家说真话。用户会用关闭功能、减少授权、迁移工具来投票;地方社区会用听证、选票和项目阻力来投票;企业则会用招聘数量和采购周期来投票。到那时,营销话术就不那么重要了。