Google DeepMind这次没有发布新模型。员工先动了手:伦敦总部一批员工投票推动工会化,DeepMind内部CWU成员中,98%支持这一动作。
他们要求Google承认英国通信工人工会CWU和Unite为联合代表。若成功,将覆盖DeepMind伦敦总部至少1000名员工。
最反常的地方在这里:这不是常见的加薪、裁员、工时谈判。员工要谈的是AI模型能不能进军事合同、员工能不能拒绝参与违背个人伦理的项目。
这一下,前沿AI公司的四件事被摆到同一张桌上:模型能力、商业订单、道德责任、劳动权利。
这次投票要谈什么
几项事实先压缩清楚。
| 问题 | 当前信息 |
|---|---|
| 谁在行动 | Google DeepMind伦敦总部员工;DeepMind内部CWU成员中98%支持工会化 |
| 要谁代表 | 要求Google承认CWU和Unite为联合代表 |
| 覆盖范围 | 若成功,将代表伦敦总部至少1000名员工 |
| Google下一步 | 管理层有10个工作日自愿承认,否则进入法律程序 |
| 员工诉求 | 不开发伤害或监视人的武器、技术或合同;就影响岗位和工作量的AI使用谈判;允许员工拒绝违背个人伦理的项目 |
员工和工会把矛头指向Google及DeepMind技术可能被用于以色列和美国军事相关用途。
报道中,一名未具名DeepMind员工通过CWU发表声明,称不希望自己的AI模型“卷入违反国际法的行为”,并称其已经在帮助以色列对巴勒斯坦人的“种族灭绝”。这属于员工和工会说法,不等于法院认定事实。
也不能据此断言DeepMind模型已经直接用于武器打击或战场杀伤。现有信息能确认的是:员工担心AI即便用于行政、分析或支持环节,也可能让军事行动更便宜、更快、更高效。
背景并不空。
据报道,Google近期与OpenAI、Nvidia签署相关协议,允许美国国防部为“任何合法政府目的”使用AI模型。此前还有Project Nimbus旧账:2024年,Google因员工抗议其与以色列政府相关的云计算合同,解雇了50多名员工。
所以这次工会化不是孤立抗议。它更像旧裂缝继续扩大。
受影响的不只是在DeepMind上班的人
对关注AI公司治理和科技伦理的读者,这件事给了一个更硬的观察点:别只看公司官网怎么写“负责任AI”,要看员工有没有谈判权、拒绝权、审查入口。
如果这些权利进不了制度,伦理就容易停在公关页。
对科技从业者,尤其是会接触大模型、云服务、政府项目的人,影响更具体:
- 入职或转岗时,要问清楚项目客户和用途边界,而不只是看模型方向和薪酬包。
- 团队接政府、军方或安全相关项目时,员工可能要求更明确的退出机制。
- 企业采购AI服务时,合规评估会多一层.供应商是否允许模型进入高风险场景,出了争议谁负责。
这会让一些采购变慢,也会让一部分团队更谨慎。
但限制也很现实。Google不太可能轻松让步。
大模型烧钱,算力、研发、人才都要真金白银。美国国防部这样的客户,有预算,有需求,也有战略价值。Google如果退出,OpenAI、Nvidia或其他供应商未必一起退出。
这就是AI伦理最难看的地方:道德压力很大,商业激励更硬。
“天下熙熙,皆为利来。”这句话放在AI军工合同上,并不文艺。它只是提醒我们,通用技术一旦变成基础设施,国家机器和大公司都会靠近。铁路、电力、互联网都经历过类似阶段。
今天的不同,是AI复制更快,部署更轻,责任链条更容易被稀释。
分水岭在用途控制权
AI公司面对军方和政府订单时,最常用的说法是:我们提供通用能力,客户怎么用,有法律和合同约束。
这话有一部分成立。
军方也会做行政、后勤、翻译、文档、代码、数据整理。不是每一次模型调用都等于武器使用。把所有政府或国防相关用途一刀切,也会遮住真实复杂性。
但员工不买账的地方,也正卡在这里。
通用能力进入军事系统后,边界会变薄。今天是文档处理,明天可能是情报整理,后天可能进入决策辅助链条。AI不必扣动扳机,也能提高筛选、定位、排序和执行速度。
这才是关键变量。
公司说自己卖的是能力,不卖用途。可权力恰恰藏在用途控制里:谁能接单,谁审批高风险客户,谁有权拒绝,出事后谁承担后果。
DeepMind员工这次提出“允许拒绝违背个人伦理的项目”,比一般抗议口号更具体。它把伦理从价值观标语往劳动合同里拖了一步。
以前是公司对外说“我们负责”。现在员工在问:如果我不同意,我能不能不做?
这会让AI公司很不舒服。
前沿AI实验室长期依赖一种平衡:用改变世界的使命感吸引顶尖人才,再用商业订单支撑昂贵研发。一旦员工开始追问“改变谁、伤害谁、我能不能拒绝”,这套叙事就没那么顺了。
接下来最该看三件事。
| 观察点 | 为什么重要 |
|---|---|
| Google是否在10个工作日内自愿承认 | 决定这件事是进入谈判桌,还是先进入法律程序 |
| 工会能否把伦理拒绝权写进谈判 | 决定它是象征性抗议,还是可执行约束 |
| Google如何界定国防部和以色列相关用途 | 决定“通用AI”边界到底由谁划线 |
目前工会化还没成功。结果未定。
但门已经被敲响了。
DeepMind员工不只是想参与造模型,也想参与决定模型不能去哪里。对AI行业来说,这比一次抗议更麻烦,也更有意义。
