一段庭审视频,把 OpenAI 最敏感的问题又翻了出来:安全流程到底是硬约束,还是可以被高层话术绕开的软门槛。
OpenAI 前 CTO、前临时 CEO Mira Murati 在 Musk v. Altman 案的宣誓视频证词中说,Sam Altman 曾告诉她,OpenAI 法律部门认为某个新 AI 模型不需要经过部署安全委员会审查。律师问她,Altman 这句话是否属实。Murati 回答:“No。”
这不是法院已经认定 Altman 撒谎。目前只能说,这是 Murati 在宣誓证词中的说法。但它戳中的地方很硬:OpenAI 对外讲了这么久的安全治理,内部执行时到底听制度,还是听人。
发生了什么:争议卡在一条安全流程上
这件事的重点不在模型名字。原始报道没有给出具体模型名称,也没有说它造成了安全事故。
重点在流程。
| 问题 | 目前能确认的信息 |
|---|---|
| 谁作证 | OpenAI 前 CTO、前临时 CEO Mira Murati |
| 她指控什么 | 她称 Altman 关于法律部门判断的说法不真实 |
| 涉及哪条流程 | 某新模型是否需要经过部署安全委员会审查 |
| 她后来怎么做 | 向 Jason Kwon 核实,发现说法不一致;最终推动模型经过安全委员会 |
| 为什么牵出旧账 | 2023 年 OpenAI 董事会罢免 Altman 时,也提到他与董事会沟通“不始终坦诚” |
Murati 的证词里,有一个细节比“No”更重要。
她说自己听完 Altman 的说法后,又去找 Jason Kwon 核实。Kwon 2021 年加入 OpenAI,曾任总法律顾问,现在是首席战略官。Murati 发现 Kwon 和 Altman 的说法“不一致”。
于是她把这个模型推去走部署安全委员会流程,避免绕过审查。
这一步保住了流程。但也暴露了流程的脆弱。
如果一个安全机制要靠 CTO 临场多问一句、再找法务负责人交叉验证,才不被绕开,那它离真正的硬约束还差一截。制度没有失效,但它显然需要人来抢救。
为什么重要:Altman 的争议一直落在“信任”上
孤立看,这件事可以有很多解释。
高速运转的 AI 公司里,法务意见可能变化,流程边界可能模糊,高管之间也可能存在误解。证词不是判决,不能把 Murati 的说法直接写成司法结论。
但 OpenAI 的麻烦在于,类似指向不是第一次出现。
Ilya Sutskever 在提交给董事会的一份 52 页备忘录相关内容中,曾称 Altman 有“持续撒谎、削弱高管、让高管彼此对立”的模式。前董事 Helen Toner 也在 2024 年播客中说,OpenAI 高管曾向董事会提供 Altman 在不同情境中“撒谎和操纵”的证据。2023 年董事会罢免 Altman 时,公开理由也是他与董事会沟通“不始终坦诚”,影响董事会履责。
这些都不是法院定论。它们更像一组反复出现的管理信号。
问题不只是 Altman 有没有说错某一句话,而是 OpenAI 内部关键人物为什么反复把矛头指向“信任”。技术公司可以接受强势 CEO,也可以接受快节奏发布。可安全治理不能靠个人信用透支。
安全流程的价值,正在于它不需要相信某一个人。
Murati 也不能被简单写成“反 Altman 阵营”。她在证词中同时批评董事会当年突然罢免 Altman,认为 OpenAI 当时有灾难性崩盘风险。
这个细节很关键。它说明她的判断不是单边站队:Altman 的管理方式有问题,董事会的处理方式也粗糙。
OpenAI 的难题就在这里。CEO 权力太强,安全流程会被速度挤压;董事会猛然出手,组织又可能塌掉。一个靠顶级人才、资本预期和平台合作撑起来的 AI 公司,最怕的不是吵架,而是没人知道最后谁说了算。
谁受影响:开发者和企业客户该看制度,不只看模型
这事对普通用户的短期影响有限。没有证据表明某个已发布模型因此出了具体安全事故。
但对两类人,影响很实在。
| 受影响对象 | 应该怎么理解这件事 | 更现实的动作 |
|---|---|---|
| 依赖 OpenAI API 的开发者 | 模型能力之外,治理稳定性也是平台风险 | 关键业务避免只押单一模型;保留迁移接口和备选供应商 |
| 正在采购 AI 服务的企业客户 | 安全承诺不能只看官网措辞,要看流程能否被审计 | 在合同、合规评估里追问模型发布审查、事故响应和责任边界 |
| 关注 AI 安全治理的人 | 争议焦点从“模型会不会失控”落到“组织能不能守住流程” | 观察 OpenAI 是否让安全委员会、董事会和高管权限更透明 |
这不是让所有人立刻逃离 OpenAI。它仍然是最重要的 AI 公司之一,模型能力、生态资源和开发者惯性都摆在那里。
但如果你是企业客户,就不能只问“模型多强”。你还要问:出问题时谁负责?发布前谁有否决权?CEO 能不能用一句“法务说可以”改变流程?
如果你是开发者,也不必因为一段证词马上迁移。但核心业务最好别把所有路径都绑死在一家供应商上。多接一层抽象,多留一个备选模型,不是悲观,是工程常识。
我更在意的是,OpenAI 这类公司正在把两套逻辑绑在一起:一套是商业公司抢窗口、抢客户、抢人才;另一套是实验室式的安全承诺、伦理叙事和治理理想。
两套逻辑可以共存,但必须有边界。
“天下熙熙,皆为利来。”这句话放在这里不玄。大模型公司不是寺庙,它们有融资压力、商业客户、平台竞争和人才战争。问题不在逐利,而在逐利时还愿不愿意承认约束。
铁路、电力、石油这些基础设施行业早就演过类似剧情。技术一旦变成社会底座,企业就会说自己服务公共利益;可真到扩张和监管冲突时,利润、控制权和速度总会先伸手。不完全一样,但权力结构很像。
AI 公司的特殊之处在于,它们卖的不只是工具,还卖“可信”。可信不是一句品牌口号。它要落在会议记录、审查权限、否决机制和事后追责里。
接下来最该看的,不是 Musk 这场诉讼会不会立刻改写 OpenAI 命运。现在还看不清。
更该看三件事:Altman 和 OpenAI 是否给出更具体回应;部署安全委员会的权限是否能被外部理解;董事会、安全团队和 CEO 之间的边界是否更清楚。
如果这些仍然靠内部高管在庭审里互相还原,那 OpenAI 的安全叙事就会继续漏风。
这次被照出来的,不是某个模型有多危险。是当安全制度撞上商业速度,它到底听谁的。
