Anthropic那张“AI要吃掉工作”的图,可能没你想的那么吓人

人工智能 2026年4月1日
Anthropic那张“AI要吃掉工作”的图,可能没你想的那么吓人
Anthropic最近引用的一张就业市场图表,把大模型的“理论能力”画得像一片即将吞没白领世界的蓝色海洋。但追根溯源会发现,这个数字并不是对今天AI的实测,更像是2023年AI狂热期里,研究者对“未来LLM软件”的一组大胆猜测。真正重要的问题不是AI会不会替代所有人,而是我们正在用什么样的假设,制造下一轮技术焦虑。

一张看上去很吓人的图,和一个没那么结实的结论

最近,Anthropic一份关于AI与劳动力市场的报告在科技圈里被广泛转发。最抓眼球的是一张对比图:红色代表当前职业对大语言模型的“实际暴露度”,蓝色代表这些职业面对LLM的“理论能力覆盖范围”。蓝色部分铺得很大,几乎像一场缓慢推进的潮水,从文艺媒体、办公室行政,到法律、金融、管理,一路漫过去。

如果只看这张图,确实很容易得出一个结论:AI迟早会接管大多数白领工作。那种视觉冲击很强,甚至比很多标题党还直接——不是“AI可能影响岗位”,而是“AI理论上能覆盖大量岗位任务”。在今天这个人人都对职业安全感有点紧张的时点,这种图天然会被放大传播。

但新闻最怕只看图不看脚注。Ars Technica这篇报道做了一件很有价值的事:它往下追问了一层——Anthropic所谓的“理论能力”,到底是怎么量出来的?答案并不神秘,也不那么坚硬。它并不是Anthropic对自家最新模型做的大规模真实测试,也不是基于近两年产业部署情况做出的动态预测,而是主要借用了2023年一篇很有名的论文《GPTs are GPTs》。问题也恰恰从这里开始。

这不是今天AI的成绩单,而是2023年的“未来想象图”

那篇2023年的研究,出自OpenAI、OpenResearch和宾夕法尼亚大学研究者之手。研究方法看上去很科学:把美国O*NET职业数据库中的工作任务拆得很细,然后让研究者判断,GPT-4以及未来可能出现的“LLM驱动软件”,能不能把这些任务的完成时间缩短至少一半,而且质量还要“相当”。

听起来合理,实际却埋着几个很大的前提。第一,这种判断很大程度上依赖人工标注;第二,参与标注的人,并不是这些岗位的从业者,甚至很多人并不熟悉具体职业本身;第三,他们做判断时,还被允许把“未来可能出现的软件工具”一起算进去。换句话说,这里面混杂了“现在模型能做什么”和“未来有人也许会把它包装成好用产品”两层完全不同的东西。

这就像拿着一台刚上市的智能手机,不仅讨论它今天能拍什么照片,还顺手把三年后可能出现的所有摄影App、自动修图服务和云端剪辑能力一起算进来,然后说:这台手机理论上可以替代半个影像工作室。你不能说它完全错,但它显然不是现实。

更关键的是,研究者自己也承认了局限性:标注有主观性,对职业的理解未必充分,不同任务与职业之间如何聚合,本身也存在逻辑不清和标签偏差。可一旦这些高度不确定的估算,被Anthropic包装成一块整齐、漂亮、带颜色对比的图表,它就突然长出了一种“客观真理”的外观。这正是技术传播里最危险的一种错觉:图做得越像仪表盘,假设就越容易被当成事实。

真正撑起“蓝色恐慌”的,是对未来软件的乐观脑补

如果只看2023年那篇研究对当时LLM能力的估计,其实没有现在图表看起来这么夸张。研究认为,在当时条件下,大约只有15%的工作任务能被LLM提升至少50%的效率;只有约2.3%的职业,其过半任务会因此“暴露”给LLM。这个数字并没有“AI横扫就业市场”的戏剧效果。

真正把数字推高的,是研究中的另一层设定:anticipated LLM-powered software,也就是“预期中的LLM驱动软件”。这部分想象空间非常大。比如研究者认为,未来合同谈判或采购协商也可能被LLM影响,因为双方可以把自己的立场输入模型,让模型帮助解决争议。这个设想听上去很先进,也很像投资人爱听的故事,但现实里它不只取决于模型会不会说话,还取决于制度是否接受、公司是否愿意采用、当事人是否信任、责任谁来承担。

这也是今天很多AI讨论最容易忽略的一点:技术能力从实验室走到真实工作流,中间隔着产品设计、组织流程、法规约束、成本结构、用户习惯和风险管理,不是一条直线。模型会总结文档,不等于律师事务所愿意让它改合同;模型能生成病例摘要,不等于医院敢让它直接参与处方决策;模型会写代码,也不等于团队因此整体提速。

这一点,过去两年的一些现实研究已经在泼冷水。Ars提到,一项2025年的研究发现,开源开发者使用AI工具后,综合下来反而慢了19%。原因并不复杂:你节省了一部分编码时间,却把时间花在写提示词、审查生成结果、返工和修Bug上。AI不是没有帮助,而是帮助很容易被额外管理成本吃掉。很多知识工作也是类似逻辑:看上去自动化了,实际上只是把劳动从“创作”转移到了“筛选、核实、兜底”。

AI会不会抢饭碗,问题不在“能不能做”,而在“谁来担责任”

我一直觉得,关于AI与就业,最容易误导人的一句话就是“AI能做这项任务”。因为一项工作并不只是任务清单的拼盘。工作里还有判断、责任、关系、上下文,以及出了问题之后,谁来背锅。

举个最典型的例子,研究者自己也提到,AI可以为诊断和处方提供建议,甚至写病例记录,但最后仍然需要人类做决定。这句话看似平常,实际上很关键。因为在医疗、法律、财务、公共管理这些高责任行业,最后那一下“签字”本身,就是工作的核心价值之一。AI可能把前面的机械步骤压缩掉,却不一定能替代最后的判断权。

所以,很多所谓“暴露度高”的岗位,未必会被整岗替代,更可能经历的是重组。一个律师助理的工作内容会变,一个设计师的起稿方式会变,一个分析师写报告的流程会变,但这和“消失”不是同一个意思。工业革命没有让人类停止工作,互联网也没有让白领集体失业,它们做的更多是重排分工、抬高一部分岗位门槛、压低另一部分岗位溢价。AI更可能延续这个路径,只不过速度更快,落点更碎。

Anthropic自己其实也承认,截至目前,并没有在失业数据上看到那些“更暴露”的职业与“更不暴露”的职业之间,出现明显分化。公司当然也提醒,这种影响可能滞后,就像中国制造的冲击、或者互联网对传统行业的改造,往往要经过几年才会在统计里显形。这个判断我基本认同。但认同“影响会来”,不等于认同“那张图已经证明了影响的形状”。

真正值得警惕的,也许不是AI本身,而是被图表放大的想象力

过去三年,AI行业最不缺的就是两种情绪:一种叫狂喜,一种叫恐慌。2023年GPT-4刚出来时,几乎整个行业都处在极度亢奋状态,连“暂停AI研发六个月”“超级智能可能毁灭文明”这样的表述都能成为严肃公共讨论的一部分。那是一个很适合做大预测的年份,也很适合把模糊的可能性说成明确的趋势。

今天回头看,很多最夸张的预言没有兑现,但它们留下了深刻的叙事模板:AI会越来越强,岗位会越来越危险,今天没发生只是明天还没到。这个叙事不能说全错,却太容易把复杂现实抹平。企业采购AI,不只看能力,也看成本;员工使用AI,不只看效率,也看风险;监管者面对AI,不只看创新,也看责任边界。所有这些摩擦,都会让“理论能力”在现实里打折。

所以,这件事最重要的意义,不是告诉我们Anthropic的数据“靠不靠谱”这么简单,而是提醒我们:凡是关于AI未来的大结论,都得先问一句,它建立在什么假设上。是实测,还是推断?是今天,还是一个没有期限的未来?是在说“辅助人类”,还是“替代人类”?如果这些问题没说清,再漂亮的图,也可能只是把焦虑做成了可视化产品。

我不怀疑AI会继续改写劳动力市场,尤其是文字处理、客服、编程、文档流转、分析汇总这些已经高度数字化的工作。但我同样不觉得“理论能力覆盖80%任务”就等于“80%的工作快没了”。技术史反复证明,真正改变世界的,从来不是模型在论文里理论上能做什么,而是社会最终愿意把什么交给它去做。

这也是接下来最值得追问的问题:当AI越来越像一个合格的助手,企业会把省下来的时间变成更少的人力,还是变成更多的产出?答案不同,劳动力市场的走向就完全不同。这比一张吓人的蓝色面积图,要现实得多,也重要得多。

Summary: 我的判断是,Anthropic这张图更像一张“技术潜力情绪图”,而不是一张可靠的就业预警图。AI当然会持续侵入工作流程,部分岗位也会因此被压缩、改造甚至淘汰,但短期内更常见的不是整职业消失,而是任务被重写、效率被重新分配。未来两三年,真正值得盯住的不是“理论覆盖率”,而是企业里哪些场景开始稳定省钱、稳定提速、稳定敢担责;只有那时,AI对就业的真实冲击才会从幻灯片走进现实。
Anthropic大语言模型就业市场岗位替代理论能力覆盖GPTs are GPTs技术焦虑AI与劳动力市场Ars Technica白领工作