《纽约时报》这次更正,事情不大,信号很硬。
一篇加拿大选举报道里,记者把 AI 生成的政治观点摘要,当成了加拿大保守党领袖 Pierre Poilievre 的原话引用。时报后来在编辑说明里承认:AI 把观点摘要渲染成 quotation,记者本应检查工具返回内容的准确性。
文章已经改了。现在引用的是 Poilievre 今年 4 月演讲中的真实表述。时报还特别澄清:他并没有在那场演讲中把改变阵营的政客称为 “turncoats”。
Simon Willison 做的是转引和摘录这段编辑说明,不是爆料调查。这个边界也要放清楚。
这次错在哪里:AI 摘要被穿上了引号
这件事可以压缩成一张卡片:
| 问题 | 事实 |
|---|---|
| 误引对象 | Pierre Poilievre,加拿大保守党领袖 |
| 错误性质 | AI 将观点摘要渲染成直接引语,记者未核验 |
| 更正内容 | 文章改为引用其 4 月演讲中的真实表述 |
| 关键澄清 | 他未在该演讲中称换阵营政客为 “turncoats” |
| 目前未知 | 时报未说明使用了哪款 AI 工具,也未披露内部处理细节 |
如果只说“AI 又幻觉了”,反而把责任说轻了。
AI 当然会编、会补、会把“意思差不多”写成“某人说过”。这已经不是新知识。真正刺眼的是后半句:记者应该核验,但没有核验。
新闻里的引号不是排版符号。它代表来源、语境、责任和可追溯性。把模型摘要放进引号里,就等于把机器的归纳,伪装成当事人的原话。
“名不正,则言不顺。”放到新闻引用里,就是一句很朴素的规矩:谁说的,在哪说的,原话是什么,不能混。
真正的漏洞:核验责任被工具稀释了
我更在意的不是某个记者犯错,而是这种错为什么会变得更容易。
生成式 AI 最擅长制造一种“像已经核验过”的文本。语气稳,结构顺,还可能主动补上引号。它给人的错觉是:这段话已经在某个地方存在过,只是我还没点开原文。
但新闻工作不能靠这种错觉。
摘要可以帮记者找方向,不能替记者落引号。模型可以提示某人可能表达过类似观点,不能直接变成“某人说”。工具越顺手,越要把事实链条拉紧。
这里有一个现实约束:不是所有报道都有完整逐字稿、公开录音或清晰出处。竞选报道节奏又快,材料又杂。这些都能解释压力,不能取消核验。
对新闻机构和内容团队,动作应该很具体:
| 对象 | 该改什么 |
|---|---|
| 记者 / 作者 | AI 输出只能当线索;直接引语必须回到演讲、采访、文件、录音或可信逐字稿 |
| 编辑 / 审稿人 | 凡是引号内文字,要求标注原始来源;找不到来源,就改成转述或删掉 |
| 内容审核负责人 | 在 CMS 或审稿清单里加入“AI 生成内容不得直接作为引语”的硬规则 |
| AI 工具采购者 | 不要只看摘要能力;要看引用溯源、原文定位、日志留存和人工复核接口 |
这才是对目标读者有用的地方。
关注 AI 与媒体伦理的读者,不必把这件事理解成“时报系统性造假”。目前材料只证明一次具体误引与更正。但它足以提醒我们:以后看 AI 参与生产的内容,最该盯的不是文风像不像人,而是引用能不能追到原始来源。
新闻从业者和内容流程负责人,不能再把“人类最终负责”挂在墙上当护身符。责任如果没有写进流程,最后就会变成人人负责,等于没人负责。
接下来该看什么:不是禁用 AI,而是引号有没有门禁
AI 能不能进编辑流程,不是最关键的问题。它已经进来了,或早或晚,明里暗里。
真正的分水岭是:机构有没有把核验机制制度化。
可以看几个硬指标:
- 直接引语是否必须绑定原始来源;
- AI 摘要和人工转述是否有明确标记;
- 编辑能否查看模型输出、原始材料和修改链路;
- 更正说明是否具体到错误机制,而不是只写“已更新”;
- 工具采购是否要求可追溯,而不是只要求更快生成。
这些东西不性感,也不适合发布会。但它们决定一家机构是在用 AI 提效,还是在用 AI 稀释责任。
历史上每一次信息技术提速,都会带来产能幻觉。电报让新闻更快,误报也更快;社交平台让发布更轻,谣言也更轻。AI 不完全等同于这些旧技术,但重复了同一种诱惑:先把速度拿到手,再把责任往后推。
这次时报至少做了更正,也说明了错误机制。这一点该肯定。可代价也摆在那儿:一家顶级新闻机构都能让 AI 摘要穿上引号,普通内容团队更没资格假装自己天然免疫。
回到开头那个小细节。
一个词,一个引号,一段被误认的原话。它看起来不像大事故,却正好暴露了 AI 时代新闻可信度最薄的地方。
模型更会写了,编辑更不能偷懒。引号一落,责任就落了。没有核验,工具再聪明,也只是把错误写得更像真的。
