Anthropic 最近更新了 Claude Opus 4.7 的系统提示词,对比 2 月 5 日发布的 Opus 4.6,新版本在 4 月 16 日上线后,暴露出一条很清晰的产品路线:Claude 不想再做一个总爱先提问的聊天机器人,而是想做一个会自己找工具、补足信息、把事做完的助手。

这件事重要,不是因为提示词像“幕后剧本”那样猎奇,而是因为 Anthropic 仍是少数愿意公开用户侧系统提示词的大模型公司。OpenAI、Google、xAI 都会谈安全原则和产品能力,但很少把具体行为规则完整摊开。对开发者、企业客户和研究者来说,这种透明度本身就是产品信息;它能帮助外界判断:模型为什么这样答、边界设在哪里、接下来会朝什么方向迭代。

4.7 的变化,指向一个更主动的 Claude

这次最关键的改动,不是把“developer platform”改名为“Claude Platform”,也不是新增了“Claude in PowerPoint”这类办公工具描述,而是系统提示词里新增了 <acting_vs_clarifying> 和更明确的 tool_search 规则。核心意思很直接:如果用户只缺了少量细节,Claude 应该先合理尝试,而不是把对话变成信息采集表;如果有工具能补足信息,优先调用工具,不要让用户自己去找。

这其实是在修正过去一类常见抱怨:模型明明能开始做事,却总是先问三轮问题。Anthropic现在等于把“少问、先干、做完整”写进了产品规范。配合它公开的工具文档,Claude Chat 已经不是单纯的文本问答界面,更像一个带搜索、文件、网页、位置、天气、历史会话等能力的轻量代理系统。

  • 少追问,优先尝试完成任务
  • 先查工具,再说“我做不到”
  • 回答更短,避免把用户淹没在长文本里
  • 用户说结束,就结束,不再强行续聊

这几条放在一起看,意思比单条改动更大:Anthropic在压低“陪聊感”,强化“执行感”。

透明是少数派做法,价值比一两条提示词更大

Anthropic 把系统提示词持续公开,档案能追溯到 2024 年 7 月的 Claude 3。这在行业里仍属异类。多数厂商更愿意把模型行为解释成“综合训练结果”,而不是让外界看到明确规则。原因也不难理解:一旦公开,外界就能追踪产品取舍,竞争对手也能读出策略变化。

横向看,Anthropic 的做法对三类人尤其有价值:

对象能得到什么现实限制
普通用户更容易理解为什么 Claude 有时拒答、有时会主动调用工具公开的不是全部,真实体验还受工具权限和账户形态影响
开发者能更好调试提示词、预判模型行为、设计更稳的工作流工具描述并未完整公开,API 与 Claude.ai 行为也不完全一致
企业客户更方便做合规审查,评估是否适合接入内部流程系统提示词会变,企业仍要自己做回归测试

这里有个原文没展开、但很关键的限制:系统提示词并不等于全部控制层。工具描述、账户权限、UI 限制、地区可用性、后端策略模型,都会决定最后用户看到的 Claude。Simon Willison 通过向 Claude 直接提问,整理出包括 web_searchweb_fetchtool_searchconversation_searchweather_fetch 等在内的工具清单,这已经比公开文档更接近真实能力边界了,但依然不是完整实现图纸。

安全条款变长,说明厂商更怕“连环对话”出事

这次另一处很实的变化,是儿童安全和饮食失调相关条款明显扩展。尤其是儿童安全部分被包进新的 <critical_child_safety_instructions> 标签,还加入一条很硬的规则:一旦 Claude 因儿童安全原因拒绝了请求,同一对话后续都要以“极度谨慎”的方式处理。

这反映的是行业里已经被验证过的风险:模型往往不是第一次就失守,而是在多轮对话里逐步被带偏。Anthropic现在把“连续上下文也算风险累积”写进系统提示词,本质是在堵一种现实中的攻防漏洞。新增对“disordered eating”的明确限制也类似——不是泛泛地谈健康建议,而是直接禁止精确数字、目标和步骤,因为这些内容在特定用户情境下可能构成刺激。

另一个有意思的改动,是 Claude 现在更明确拒绝在复杂或争议性问题上只给“是/否”式回答。这是在回应社交媒体时代一类很流行的截图打法:逼模型用一个字给立场,然后把结果拿去传播。Anthropic 这次把反截图攻击写进提示词,说明模型厂商面对的对手,已经不只是越狱研究者,也包括舆论场上的断章取义。

对谁有实际影响:买单的人会先感受到差别

如果你是普通用户,最直接的变化是 Claude 可能少一点“请你再补充信息”,多一点“我先帮你查一下”。这会让体验更顺,但也意味着模型会更频繁地主动调用工具,前提是你的账号和场景确实开放了这些能力。

如果你是开发者,接下来最现实的问题不是“提示词写得妙不妙”,而是要不要重测现有流程。一个更主动的模型,可能提高任务完成率,也可能带来新的成本和不可预测性,比如多一次搜索、多一步文件操作,都会影响时延、日志审计和权限设计。企业客户则会更在意另一件事:当 Anthropic 把产品推向代理化,采购和安全团队就不能再把 Claude 当成普通聊天工具看待,而要按“会访问外部资源、会调用动作”的系统来管。

一个细节也说明模型本身在更新:4.6 里还要单独写明“Donald Trump 是美国现任总统,于 2025 年 1 月 20 日宣誓就职”,避免知识截止日期带来错误回答;到 4.7,这段被删掉,说明新模型的知识边界至少在这类问题上更可靠了。它不算惊天动地的升级,但很实用——用户不需要为基础事实再和模型拉扯一轮。