Siri要变“总机”了?苹果被曝将向第三方AI聊天机器人开放接口

苹果可能终于想明白了一件事:在今天这个AI世界里,最重要的未必是“所有能力都自己造”,而是“谁握着用户入口”。
据彭博社记者马克·古尔曼爆料,苹果计划在 iOS 27 中推出一个名为“Extensions”的新机制,让用户自行选择与 Siri 连接的 AI 聊天机器人。除了已经接入的 OpenAI ChatGPT,未来从 App Store 下载的 Gemini、Claude 等第三方模型,也可能成为 Siri 背后的“外援”。如果这一消息最终落地,那会是 Siri 多年来最有现实意义的一次转向。
Siri不再只靠自己,苹果开始学会“借力”
现在的 Siri,有点像一个站在豪华客厅里的老管家,穿着体面,说话礼貌,但一遇到复杂问题就容易卡壳。苹果过去几年一直试图给它“整容”和“补课”,但现实很残酷:生成式 AI 这波浪潮里,OpenAI、Google、Anthropic 跑得太快,Siri 原有的技术包袱又太重,苹果想一步追平,难度相当高。
所以,这次传出的思路非常苹果,也非常现实:既然你们这些大模型都很强,那我就把 Siri 变成一个系统级调度层。用户提问时,Siri 不一定自己回答,而是可以把任务转给 ChatGPT、Gemini 或 Claude,再把结果送回来。你可以把它理解为,Siri 不再执着于“自己最聪明”,而是开始扮演“最会叫人”的角色。
这件事的重要性在于,它改变了 Siri 的定位。过去 Siri 是一个功能本身,未来它可能更像一个 AI 路由器、一个入口、一个分发中心。苹果真正想守住的,也许不是每一个回答的生成过程,而是“用户还愿不愿意先开口叫 Siri”。在平台战争里,入口永远比单点功能更值钱。
这不是苹果变开放了,而是它必须更灵活了
很多人会把这条消息理解成:苹果终于开放了。某种程度上是,但别高兴得太早,苹果式开放通常都有前提。它更像是“可控开放”——允许第三方接入,但规则、权限、界面、开关和最终体验,大概率仍牢牢掌握在苹果手里。
从爆料看,这个“Extensions”功能会允许用户在 iPhone、iPad 和 Mac 上启用或关闭特定聊天机器人,这显然比现在单一接入 ChatGPT 更进一步。苹果甚至还在准备一个独立版 Siri 应用,据说这套新的整合机制也会适用于那款产品。换句话说,苹果不是在做一次临时补丁,而是在搭一个更长期的 AI 操作层。
为什么是现在?因为苹果已经没有太多时间了。过去一年多,苹果在 AI 上的节奏并不顺。Siri 改造多次传出延期,内部高管调整也让外界看到了它的焦虑。今年 1 月,苹果已经公开表示正与 Google 合作,为新版 Siri 引入 Gemini 能力。随后又有报道称,这项合作还包括使用 Gemini 来训练苹果自己的小模型。你能感受到一个明显变化:苹果不再羞于承认自己需要外部力量。
这其实很像智能手机时代早期的一个经典转折。苹果曾经强调封闭的一体化体验,后来还是逐步接受第三方 App 构建生态。今天,AI 聊天机器人对于系统的意义,越来越像当年的 App。用户不再只需要一个语音助手,而是希望系统能调用“最适合这个任务的脑子”。苹果如果还坚持只有自家方案,风险反而更大。
对用户是好事,但也会带来新的混乱
从消费者角度看,这当然是利好。最直接的变化就是:你不需要在“系统助手”和“第三方 AI”之间反复横跳了。以前很多人用 iPhone 的真实场景是这样的——先问 Siri,发现它答得一般;再打开 ChatGPT;如果想做代码或长文本推理,也许转去 Claude;要结合 Google 搜索生态,又切到 Gemini。来回切 App,很像在手机里跑接力赛。
如果 Siri 真能接入多个模型,体验会顺畅很多。用户可以根据自己的偏好和任务类型来选:写邮件草稿用 Claude,查实时信息偏向 Gemini,做通用对话交给 ChatGPT。这种选择权,本身就是进步。尤其在 AI 能力快速分化的当下,没有哪个模型能在所有任务上都稳坐第一,把选择权交给用户,反而更符合现实。
但事情的另一面也很明显:系统会不会因此变复杂?普通用户真的愿意研究“我该把哪个机器人设成默认”吗?而且不同模型的隐私政策、回答风格、幻觉率、联网能力、付费机制都不一样,一旦把它们塞进 Siri 这个统一入口,苹果就得处理一大堆体验层面的细碎问题。
举个简单例子,你问“帮我总结今天收到的邮件并起草回复”,这到底是本地模型处理,还是云端第三方模型处理?数据会不会发到外部服务器?你是不是得为某个高级模型单独订阅?如果答案之间互相冲突,用户会怪谁——怪 Siri,还是怪背后的模型?这些问题现在看似技术细节,最后都会变成真实的用户信任问题。
苹果真正想做的,可能是AI时代的“应用商店秩序”
这条消息最让我在意的,不是 Siri 能接几个模型,而是苹果可能正在把 AI 插件化、商店化、系统化。这个方向一旦成立,意义就大了。
过去十几年,App Store 之所以强大,不只是因为软件多,而是因为苹果定义了分发秩序:谁能上架、怎么收费、权限如何申请、数据如何调用、交互方式怎么统一。现在,AI 也正在走向类似阶段。谁能成为系统默认助手?谁可以读取哪些上下文?谁能代表系统回答问题、代用户执行任务?这些都是下一代平台规则。
如果“Extensions”最终成形,苹果实际上是在把聊天机器人从独立 App,推进到“系统能力供应商”的位置。这会让 AI 竞争从单纯拼模型参数,转向拼系统接入能力、场景兼容性和信任背书。换句话说,未来赢的未必只是最聪明的模型,而是最容易被系统调用、最懂苹果规则、最能融入原生体验的模型。
这对 Google 和 Anthropic 来说是机会,对 OpenAI 也是压力。OpenAI 先上车不代表永远坐稳副驾。Gemini 如果能深度融入苹果设备,再加上 Google 本身的搜索和知识图谱能力,吸引力会很强;Claude 在长文本理解和写作方面口碑也不错,未必没有一战之力。苹果把门打开一点,表面是给用户选择,实际上也把合作伙伴拉进了自己的竞技场。
苹果开发者大会 WWDC 预计将在 6 月 8 日开幕,届时新一代操作系统和 Siri 进展有望正式亮相。如果古尔曼的爆料准确,今年的 WWDC 可能不会出现那种“苹果突然端出一个比所有人都强的超级模型”的戏剧性场面,更可能出现的是一种更务实、也更符合苹果利益的方案:承认外部模型的价值,同时把它们纳入苹果定义好的秩序里。
这听上去没那么浪漫,却可能比“苹果自研大模型一统江湖”更现实。毕竟对大多数用户来说,他们不在乎背后是谁生成了答案,他们在乎的是:我说一句话,手机能不能真的把事情办了。
而这,恰恰是 Siri 这些年最欠缺的能力,也是苹果最不能再继续拖延的地方。