美国地区法官 Colleen McMahon 周四作出一份 143 页判决:Department of Government Efficiency(DOGE)取消美国国家人文基金会(NEH)超过 1400 项、总额逾 1 亿美元拨款的做法违法且违宪。
这件事最容易被讲成“ChatGPT 又闯祸了”。但真正反常的地方不是模型答错,而是政府人员把项目简介交给 ChatGPT,再配合关键词筛查,把一些拨款项目归入 DEI 相关类别,最后影响公共资助去留。
McMahon 的判断很硬:AI 是政府选的工具,不是政府的挡箭牌。
DOGE 怎么用 ChatGPT 筛拨款
判决记录了一个很具体的操作过程。
DOGE 员工 Justin Fox 被派往 NEH 后,与同事 Nate Cavanaugh 参与大规模削减拨款。Fox 使用标准提示词,把 NEH 表格里的简短项目描述提交给 ChatGPT,要求它判断项目“是否与 DEI 有关”。
回答还被限制得很机械:不超过 120 个字符,并以“Yes.”或“No.”开头。
问题在于,Fox 承认自己没有向 ChatGPT 定义 DEI,也不知道 ChatGPT 如何理解这个词。也就是说,一个没有明确定义的政治和政策标签,被交给通用聊天机器人做快速判断。
判决还提到,DOGE 使用了一组所谓“Detection Codes”扫描拨款描述。里面包括 BIPOC、Minorities、Native、Tribal、Indigenous、Immigrant、LGBTQ、Homosexual、Gay 等词。
这些词很多直接触及族裔、原住民身份、移民身份、性取向等受保护特征。
| 环节 | DOGE 的做法 | 法官关注点 |
|---|---|---|
| ChatGPT 初筛 | 用项目简介判断是否与 DEI 有关 | DEI 未被明确定义,模型判断被用于行政筛查 |
| 关键词扫描 | 检索 BIPOC、Native、Indigenous、LGBTQ、Gay 等词 | 涉及受保护身份和观点分类 |
| 拨款处理 | 超过 1400 项 NEH 拨款被取消 | 判决认定违反第一修正案、第五修正案平等保护原则,且 DOGE 缺乏相应权限 |
这里要说准一点:判决并不是说所有被取消项目都只因为 DEI 被砍。
更准确的表述是,法院认定 DOGE 的筛查和取消过程中使用了受保护身份与观点分类,并把这些分类纳入撤销联邦拨款的依据。这才是宪法问题的核心。
法官真正否定的,不是 AI,而是借 AI 行政
公共部门用自动化工具不稀奇。福利审核、移民筛查、警务风险评估,都早就进入算法系统。
但这类系统至少要面对几个问题:谁授权,目的是什么,怎么复核,错了能不能申诉,记录能不能追溯。
本案里的 ChatGPT 使用方式更粗糙。它不是一个经过专门采购、测试和边界设定的政府系统,而是被拿来快速给人文拨款项目贴标签。
这正是判决的现实意义。
政府不能说“模型这么判断”,就把宪法责任甩给技术工具。McMahon 指出,ChatGPT 是政府为这个项目选用的工具。DOGE 用 AI 识别 DEI 相关材料,不能让可能违宪的行政行为变干净。
对公共机构来说,这个信号很直接。
如果以后还想用生成式 AI 做拨款筛查、采购审查或资助评估,不能只留下一个提示词和一串“Yes/No”。至少要留下权限依据、筛查标准、人工复核记录和申诉路径。
否则,表面上是自动化,实质上仍是行政判断。只是速度更快,痕迹更薄,受影响的人更难反驳。
受影响的人,接下来最该看三件事
NEH 资助的对象,常见于高校、博物馆、地方文化机构和研究人员。拨款被取消,不只是账面少一笔钱。
具体到动作上,项目团队可能已经延后采购,暂停招聘研究助理,推迟展览合同,或者把档案数字化项目停在半路。钱恢复以后,也不等于时间自动回来。
对这些机构和团队来说,接下来最实际的动作不是讨论 ChatGPT 好不好用,而是核对自己的拨款状态、保存取消通知和往来记录,并谨慎重启合同和人员安排。若政府上诉,执行节奏还可能变化。
目前最该观察的有三件事:
| 观察点 | 为什么重要 | 对受影响者的影响 |
|---|---|---|
| NEH 如何恢复拨款 | 判决要求撤销取消决定,但落地需要流程 | 项目能否重启、合同能否恢复,要看执行速度 |
| 政府是否上诉 | 上诉可能影响恢复节奏和法律确定性 | 高校、博物馆和研究团队可能继续观望部分支出 |
| 公共机构如何记录 AI 使用 | 提示词、复核、权限依据会成为责任链条 | 以后被 AI 筛掉的人,才有机会知道问题出在哪 |
这也是这案子比“AI 出错”更重要的原因。
如果政府把 ChatGPT 当作整理材料的助手,问题相对有限。可一旦它被接到公共资金分配、身份分类和观点筛查上,就不再是办公效率工具,而是行政权力的一部分。
工具可以新,边界不能糊。
开头那个问题也回来了:ChatGPT 能不能替政府判断谁该继续拿公共资助?
法院这次给出的答案很清楚。可以用工具,但不能借工具越权;可以提高效率,但不能拿效率绕开宪法。
