马斯克在法庭上被问得很直:xAI 有没有用 OpenAI 的模型来改进 Grok?

他没有完全否认。

他先说,模型蒸馏就是用一个 AI 训练另一个 AI,“通常所有 AI 公司都会这么做”。被追问是不是 yes 之后,他给了一个词:Partly。

这个词很轻,但足够把 AI 行业最不愿摊开的那块桌布掀起来一角。

相比之前只是“xAI 被指部分蒸馏 OpenAI 模型”,现在多了一个更硬的事实:马斯克本人在加州联邦法庭作证时,承认 xAI 至少部分使用过 OpenAI 的模型来改进自家模型。还没有法院认定侵权,也没有公开材料说明具体调用量、数据规模、训练方式和损害结果。但“被指”到“承认部分使用”,性质已经不一样。

这件事到底发生了什么

几句话够了。

问题目前能确认的事实
Elon Musk 在 OpenAI 相关诉讼中作证
他说了什么xAI “部分”使用 OpenAI 模型来改进 Grok
涉及什么技术模型蒸馏:用一个模型的输出或能力训练另一个模型
灰区在哪里自家模型之间蒸馏很常见;拿竞品模型输出训练自家模型,容易碰到服务条款、知识产权和竞争伦理
谁最受影响AI 初创公司、闭源模型公司、依赖外部模型 API 做产品的开发者

模型蒸馏本身不是邪术。

大模型贵,小模型便宜。让一个强模型当“老师”,把能力压缩给一个更小、更便宜、更快的“学生”,是很常见的工程路线。公司内部这么做,没什么稀奇。

麻烦出在跨公司。

如果你反复调用竞品模型,把它的回答、风格、推理路径、偏好反馈沉淀成训练数据,再拿去训练自己的模型,就不只是“学习先进经验”这么温和了。它会立刻撞上三个问题:有没有违反 API 条款?有没有复制竞品能力?有没有绕开对方投入的训练成本?

OpenAI、Anthropic、Google 这类闭源模型公司,过去都把外部蒸馏描述为风险、违规,严重时甚至接近知识产权盗用。DeepSeek、Moonshot、MiniMax 等中国 AI 公司,也曾在类似语境里被点名。

所以这次的反常点不在技术,而在人。

马斯克曾经长期批评 OpenAI 偏离初心、走向封闭、追逐商业利益。现在轮到自己的 xAI,他也站到了同一条灰线上。

“所有公司都这么做”,是最危险也最好用的话术

马斯克证词里最值得咂摸的,不是 “Partly”,而是前面那句:所有 AI 公司通常都这么做。

这句话很聪明。

它把一个具体行为,转成了行业惯例。听起来像常识,实际绕开了关键问题:怎么做、做到什么程度、有没有批量抓取输出、有没有绕过服务条款、是不是在复刻竞品能力。

验证和训练也不能混为一谈。

用 OpenAI 模型做 benchmark,看看 Grok 哪些题答得差,这是评测。拿 OpenAI 的输出系统性生成数据,再喂给 Grok,这是训练。前者像考试对答案,后者像把隔壁学校的教材复印成自己的课程体系。

两者都叫“参考”,但法律和商业伦理不是一回事。

这里不能把话说满。现有公开信息只说明马斯克承认“部分”使用 OpenAI 模型,并不等于法院已经认定 xAI 侵权。我们也不知道这里的“部分”到底是少量辅助、评测验证,还是更系统的训练材料。

但这句话已经足够说明一个现实:AI 行业嘴上讲原创能力,身体很诚实。大家都在看别人、测别人、模仿别人、逼近别人。

差别只在于,强者把边界写进条款,追赶者把动作称为学习。

受影响最大的不是普通用户,而是做模型和做应用的人

普通用户短期未必有直接体感。

你今天用 Grok、ChatGPT 或 Claude,体验差异更多来自模型能力、产品入口、价格和可用性。蒸馏争议不会马上改变你的聊天窗口。

真正受影响的是两类人。

一类是 AI 初创公司。

过去很多小团队默认存在一个灰色打法:用大厂模型生成数据、做标注、补能力,再训练自己的小模型。成本低,见效快,还能在融资材料里说自己模型“接近头部水平”。

但如果 OpenAI 这类公司开始更严厉执行条款,甚至通过 API 调用模式、输出相似度、训练痕迹去追踪,这条路会变窄。创业公司的模型训练不只是拼算力,也要拼合规账本。

另一类是依赖模型输出做产品的开发者。

用外部模型做原型、做评测、做用户体验对比,风险相对可控。把外部模型输出批量保存下来,作为训练集、微调集、替代数据资产,就会危险得多。

很多团队最容易犯的错,是把“我只是调用 API”误解成“这些输出我都能自由处置”。平台不会这么看,法院也未必这么看。

以后闭源模型公司的护城河,不只在参数、算力、数据中心。

还会在合同、审计、调用监控、反蒸馏策略,以及一整套把“学习”重新命名为“盗用”的能力里。

真正的战场,是谁有资格定义“合法学习”

我更在意的不是 xAI 到底蒸馏了多少 OpenAI,而是谁有资格给“学习”划线。

闭源大模型公司当然有理由保护自己。训练一个前沿模型,要烧算力、买数据、做清洗、做人类反馈、安全调优。它们不可能欢迎后来者用 API 把能力一点点吸走,然后反过来做竞品。

这个逻辑成立。

但它们的道德叙事并不干净。

很多大模型最初也是在开放互联网、公共文本、创作者内容上长大的。等模型能力长成,再把围墙砌高,告诉后来者“你不能学我”,这套说法很难让所有人心服。

AI 行业今天最尴尬的地方就在这里:大家都在学习世界,但不想被世界学习。

“天下熙熙,皆为利来。”放到大模型竞争里,就是算力、数据、用户和规则解释权都要抢。谁掌握接口,谁就能定义什么叫正常调用;谁掌握头部模型,谁就能把模仿说成侵权,把防守说成秩序。

这不是科技行业第一次演这出戏。

早年的软件行业,也经历过类似阶段:先靠兼容、模仿、借鉴扩大市场;等巨头坐稳,再用专利、授权、平台规则和开发者协议锁住后来者。今天不完全一样,模型输出和软件代码也不能简单画等号。但权力结构很像:开放帮助成长,封闭保护利润。

马斯克这次的尴尬,也正在这里。

他批评 OpenAI 的封闭和商业化,很多话不是没有道理。但 xAI 自己追赶时,也绕不开同样的行业激励。模型能力不是靠宣言长出来的。要追赶,就要数据、反馈、评测、对齐、模仿。话说得再漂亮,工程团队最后还是要把 loss 降下来。

问题不在蒸馏这个技术动作本身。

问题在于,AI 公司一边把全世界的知识当训练养料,一边要求别人别把自己的输出当养料。这里面有创新,也有算计;有合理防御,也有巨头垒墙。

接下来该看什么

这事后面不用看马斯克怎么吵,重点看三个变量。

第一,法院会不会把“部分使用”往训练行为上继续追问。验证、评测、训练,边界不同,后果也不同。

第二,OpenAI 这类模型公司会不会加强反蒸馏执行。包括 API 条款、调用频率识别、异常任务检测、输出相似度追踪。

第三,小模型公司和 AI 应用团队会不会被迫重写数据来源说明。以前说“合成数据”“模型辅助生成”就够了,以后可能要说明由哪个模型生成、是否符合条款、能不能用于训练。

这才是这句 “Partly” 的分量。

它不是给 xAI 定罪。它更像一次行业供词:大模型竞争已经进入一个阶段,技术互学无法停止,规则战争刚刚开始。

模型看着更强,产品反而更虚。因为真正稀缺的东西,已经不只是能力,而是能力从哪里来、能不能站得住。