当“AI 教父”越来越像权力玩家:奥特曼与硅谷神话的危险拐点

人工智能 2026年4月8日
当“AI 教父”越来越像权力玩家:奥特曼与硅谷神话的危险拐点
围绕 OpenAI CEO 山姆·奥特曼的一篇重磅人物特稿,再次把一个尴尬问题推到台前:今天主导 AI 未来的人,究竟是在建设技术,还是在经营权力?比起模型能力本身,更令人不安的,也许是硅谷越来越习惯把夸张、反复横跳和“先做大再说”包装成天才气质。

一个令人不安的问题:AI 的方向盘,到底握在谁手里?

这两年,AI 行业最魔幻的地方,不只是模型越来越会说话,而是掌舵这些模型的人,也越来越像科幻小说里的角色。OpenAI 首席执行官山姆·奥特曼,就是其中最典型的一位。

Ars Technica 最近刊文,借《纽约客》一篇长篇人物特稿继续追问:这位被不少人视作“AI 时代关键先生”的企业家,究竟是远见者,还是一个更擅长讲故事、谈交易、争控制权的权力玩家?文章措辞相当尖锐,甚至反复提到“撒谎”“反复无常”“不可信”这类评价。坦白说,看到这种描述,我并不惊讶。真正让我在意的,是这些评价放在今天这个时间点,已经不只是一个企业家的性格八卦,而是关乎整个 AI 产业的治理风险。

毕竟,2026 年的 AI,不再是实验室里的新奇玩具。它已经开始进入搜索、办公、教育、编程、客服、内容生产,甚至国家产业政策。谁来决定它的发展节奏、商业边界和安全底线,这件事本身就比“模型排行榜谁第一”重要得多。

从“温和奇点”到“没有代价的未来”,硅谷正在沉迷一种危险叙事

奥特曼过去一年的一些公开表达,很容易让人产生一种熟悉的既视感:技术会自动解决问题,增长会稀释代价,社会会自然适应冲击,而财富终将外溢到每个人。听上去像未来学,仔细一看,更像募资路演和政治游说的混合体。

比如那套典型想象:先造出足够聪明的 AI,再把它装进人形机器人里,让机器人去挖矿、开卡车、跑工厂、建晶圆厂、扩数据中心,然后机器人再去造更多机器人。这个叙事当然很抓人,像一部预算无限的工业版《星际迷航》。问题在于,它把现实中的社会摩擦、制度滞后、劳动力转移、能源消耗、资源分配,通通压缩成一句“人类会适应的”。

这恰恰是当下硅谷最让我警惕的地方:它越来越擅长把复杂问题讲得像商业鸡汤。技术乐观主义本身并非原罪,人类历史上很多突破都来自乐观的人。但如果一种乐观拒绝讨论副作用,甚至把所有质疑都视为“阻碍进步”,那它就不再是乐观,而是傲慢。

这类气质并不只存在于奥特曼身上。马克·安德森此前写过充满“技术无所不能”口吻的宣言,彼得·蒂尔总在宏大叙事和政治情绪之间来回穿梭,扎克伯格则刚刚用天价下注元宇宙,证明即便是硅谷最有资源的人,也会把自己的执念包装成时代必然。过去十几年,硅谷最擅长的一件事,就是把“我相信”说成“历史必将如此”。

《纽约客》的人物特稿,为何会让行业神经紧绷

《纽约客》这篇关于奥特曼的报道之所以震动行业,不只是因为它写得长、采访的人多,而是因为它勾勒出一个相当完整的画像:一个极度聪明、极度擅长结盟、极度渴望掌控局势的人。他能在不同政治阵营之间切换语言,也能在不同商业对象面前调整立场;在“AI 安全”还是公司招牌时,他可以高举安全旗帜;而当资本、算力和市场份额成为更现实的目标时,这面旗帜又能迅速后撤。

这种“灵活”,从商业角度看,甚至可能是优势。创业史上,很多成功者都不是道德教科书,而是异常强势的资源整合者。问题在于,AI 不是做一款送餐 App,也不是再来一个图片社交网络。它是一种会渗透进公共基础设施、知识系统和劳动市场的通用技术。做这种技术的人,如果长期被内部人士描述为“不受真相约束”,那风险会被成倍放大。

OpenAI 自身的轨迹就很能说明问题。它最初以“非营利、强调 AI 安全”为旗号出发,后来转向混合治理,再到今天越来越像一个围绕算力、资本、政府关系和全球供应链运作的超级公司。这种转身并不完全意外,因为训练前沿模型实在太烧钱了,理想主义很容易在 GPU 账单面前低头。但问题是,如果一家以“为全人类造福”为口号的公司,最后在组织结构、信息透明和权力制衡上越来越像传统科技巨头,公众该相信什么?

真正拖累 AI 的,可能不是技术瓶颈,而是信任赤字

我一直认为,AI 现在最大的危机,不是模型不够强,而是人们越来越不确定:这些工具到底在替谁服务。

普通用户并不关心参数量增长了多少,也不太在意推理成本又降了几个百分点。大家更在意的是,训练数据从哪来?错误答案谁负责?工作岗位怎么变?平台会不会一边高喊赋能,一边把风险甩给社会?如果行业领军人物频繁展示出对权力的迷恋、对伦理的弹性、对承诺的随意,那公众对 AI 的怀疑就会迅速从“我不信这个人”,扩展成“我不信这类技术”。

这也是为什么,近几年围绕 AI 的争议越来越集中在版权、透明度、垄断和治理,而不只是技术效果。Anthropic、OpenAI、Meta、Google,几乎没有谁能完全避开训练数据来源和版权授权的质疑。生成式 AI 的商业繁荣,某种程度上建立在一个尚未清算完成的灰色地带之上:海量人类内容被吸入模型,创作者、媒体、作者和平台之间的利益分配规则却远未成型。

换句话说,AI 行业今天最缺的不是野心,而是可信赖的制度设计。我们已经见过太多“先上线、后补票”的互联网故事:社交媒体先扩张,再处理谣言;平台先做大,再讨论劳动权益;算法先推荐,再解释偏见从何而来。如果 AI 也重复这条老路,代价只会更大。因为这次被自动化和被重塑的,不只是流量分发,而是知识生产、行政流程乃至人的判断边界。

我们需要的不是更会造神的公司,而是更能被约束的技术

说到底,这场争论并不是“你喜不喜欢奥特曼”这么简单。真正的问题是:一种影响公共生活的基础技术,能不能长期由一群高度自信、强烈逐利、又习惯把规则当成谈判筹码的人来塑造?

我并不否认 AI 的价值。大语言模型在写作辅助、软件开发、信息检索、无障碍交互等方面,已经展现出实打实的生产力提升。很多研究者和工程师也确实在认真推进更安全、更有用的系统。问题恰恰在这里:技术本身未必邪恶,但当它被包裹进一种“天才可以豁免约束”的硅谷文化时,事情就会变味。

如果让我说一个更理想的方向,我会更愿意看到 AI 工具朝着几件事努力:更强的本地控制权,更清晰的数据授权机制,更透明的模型边界,以及更像公共机构而非帝国宫廷的治理方式。说得直白一点,很多人并不是反感 AI,而是反感今天这套由少数公司垄断算力、垄断分发、顺便还垄断未来叙事的玩法。

奥特曼或许仍会继续成功,OpenAI 也未必会因为一篇人物报道就掉头。但这些报道至少提醒了外界一件很朴素的事:别把企业家的自信误认为文明的方向,别把融资叙事当成社会契约。AI 的未来,不能只由最会讲未来的人来决定。

如果硅谷继续把“我想赢”包装成“我替人类前进”,那公众最终反弹的,可能不只是某一家公司,而是整个 AI 工业叙事。到那时,真正受伤的也许不是那些早已套现离场的人,而是原本可以被好好建设的技术信任。

Summary: 我的判断是,AI 行业接下来最大的分水岭,不会是模型能力谁先跨过下一个门槛,而是谁先建立起可信的治理机制。奥特曼身上的争议,不只是个人风评问题,而是整个行业文化的缩影:技术越重要,越不能只靠创始人的个人魅力和临场交易来推进。未来两三年,公众和监管者会越来越少迷信“硅谷天才”,越来越多追问数据、权力和责任。谁回答不好,谁就会为今天的傲慢买单。
山姆·奥特曼OpenAIAI治理硅谷权力集中人工智能AI安全技术叙事商业边界产业治理风险