苹果把 AI 藏进了系统里,有人把它从 Siri 身后拽了出来

人工智能 2026年4月3日
苹果把 AI 藏进了系统里,有人把它从 Siri 身后拽了出来
开源项目 apfel 做了一件很“黑客”的事:它没有训练新模型,也没有接入云端 API,只是把苹果已经塞进 macOS 的本地大模型,变成了终端工具、聊天界面和兼容 OpenAI 的本地服务器。它真正刺中的,不是技术炫技,而是一个越来越重要的问题:当 AI 已经预装在你的设备里,用户有没有权利直接使用它?

一台 Mac,三种身份:电脑、终端,现在还是 AI 服务器

这两年我们已经被各种“AI 新品发布”训练得有点麻木了:新模型、更大参数、再快一点的推理、再贵一点的订阅。于是 apfel 这种项目看上去反而有种久违的新鲜感。它不卖梦想,不讲 AGI,也不试图重新发明轮子。它做的事情非常直接——既然苹果已经把本地大模型装进了 Apple Silicon Mac 里,那就给普通人一个顺手可用的入口。

这个入口目前有三种形态:命令行工具、兼容 OpenAI API 的本地 HTTP 服务,以及一个多轮对话聊天界面。你可以在终端里直接问“奥地利首都是哪”,也可以把它接到现有的 OpenAI SDK 上,把 base_url 改成 localhost,就让自己的 Mac 冒充一个“本地版 OpenAI”。这件事的妙处在于,它不是另起炉灶,而是借用了开发者已经熟悉的工作流。对程序员来说,这比“苹果也有 AI”更重要,因为前者能立刻进入生产力场景,后者往往只会停留在发布会幻灯片上。

更有意思的是,apfel 的宣传语几乎句句都在戳中当下 AI 用户的痛点:零费用、零 API key、100% 本地运行、数据不出设备。今天的 AI 行业,一边在讲智能,一边在把用户往订阅制、云账单和隐私焦虑里推。apfel 则像一个逆行者,提醒大家:你买的那台 Mac,不只是办公电脑,它其实已经内置了一个语言模型,只是苹果把它锁在 Siri 和系统功能后面。

苹果的“端侧 AI”终于露出真正的样子

apfel 之所以值得写,不只是因为它是个好玩的开源工具,更因为它让苹果这套端侧 AI 战略第一次显得具体了起来。

过去一年,苹果对 Apple Intelligence 的表述一直很苹果:强调隐私、强调设备端处理、强调软硬件协同、强调 Neural Engine 的优势。这些话都没错,但普通用户很难直观感受到“设备端大模型”到底意味着什么。写作工具帮你润色一段文本,Siri 在几个场景里回答得更像人,这些都不够有冲击力。apfel 则像把后厨的门推开了一条缝——原来 macOS 26 之后,Apple Silicon Mac 真的自带了一个系统级语言模型,而且可以通过 FoundationModels 框架直接调用。

这背后其实是苹果一以贯之的路线:不是先让模型无所不能,而是先让模型成为系统能力。苹果不太喜欢把技术裸露给用户,它更习惯把能力缝进系统缝隙里,像 Spotlight、Core ML、Metal 那样,先变成基础设施,再等待开发者找到用法。从商业上看,这种做法能增强生态粘性;从用户体验看,它也确实更克制。但副作用也明显:能力明明就在设备里,用户却摸不着。

apfel 的出现,等于把“苹果 AI 基础设施”翻译成了“开发者可用工具”。这种翻译工作往往比训练一个新模型更有现实意义。因为真正推动技术扩散的,从来不只是底层能力,还包括接口、兼容层和足够低的使用门槛。很多技术之所以没有改变世界,不是因为不强,而是因为太难用。

它为什么会让开发者兴奋:因为不是玩具,而是接口

如果只是一个终端问答小工具,apfel 最多算个 Hacker News 式的热门项目。但它真正有杀伤力的地方,在于 OpenAI 兼容接口。

这意味着什么?意味着过去一年围绕 OpenAI API 建起来的大量工具链——Python SDK、前端应用、自动化脚本、AI agent 框架——理论上都可以少改几行代码,改连你自己的 Mac。对于不少开发者来说,这几乎是一种“逃离云端计费体系”的技术捷径。特别是在做原型验证、隐私敏感任务、本地自动化、个人知识管理这类场景时,一个 localhost:11434 可能比一个远端模型更让人安心。

当然,apfel 不是没有限制。它目前依赖 macOS 26 以及 Apple Silicon,天然把 Intel Mac 和更广泛的 PC 用户挡在门外。模型上下文窗口只有 4096 token,远远不能和如今动辄十几万、几十万 token 的云端模型相比。模型本身也不能自定义,不存在“换个更强模型”这回事,你用的就是苹果系统附带的那一个。说白了,它像一台已经封装好的家电,不像可以随意换显卡、刷模型的 DIY 主机。

可也正因为这种限制,apfel 反而更像现实世界的产品,而不是实验室演示。它没有承诺万能,只是把一套可用、稳定、私密、零边际成本的 AI 能力放到你手边。很多时候,真正改变工作流的不是最强模型,而是那个你愿意天天打开、而且不心疼 token 账单的模型。

这对苹果、OpenAI 和整个本地 AI 赛道都像个提醒

如果把时间线拉长,apfel 的意义会更清楚。过去十年,苹果最擅长的一件事,是把硬件里本来分散的能力整合成默认体验:指纹识别、神经网络加速、视频编解码、空间音频,都走过类似路径。今天轮到大模型,苹果显然也想这么做——让 AI 不再是一个独立 app,而是操作系统的一层“新电力”。

但问题也来了:当 AI 成为系统能力,它到底应该属于苹果的产品设计,还是也应该属于用户的自主调用权?苹果的倾向通常是前者。apfel 代表的则是另一种价值观:如果模型已经跑在我的芯片上、吃的是我的电、占的是我的存储,那我就应该能在终端里调用它,像调用 grep、curl、ffmpeg 一样自然。

这会逼着更多厂商重新思考“端侧 AI”的开放程度。微软在 Windows 上也在铺 Copilot 和本地 NPU 能力,高通、英特尔、AMD 都在推 AI PC,谷歌则试图把 Gemini 深度嵌进 Android 和 ChromeOS。但一个共同问题始终存在:这些 AI 究竟是厂商提供给你使用的服务,还是设备原生能力的一部分?如果是后者,用户理应拥有更直接的控制权。

apfel 还顺手触碰了另一个行业神经:OpenAI API 正在成为事实标准。一个苹果系统内置模型,最终却要通过“兼容 OpenAI 协议”的方式才最容易接入现有生态,这很有讽刺意味。今天的 AI 世界表面上百花齐放,底层接口却正在悄悄收敛。谁掌握协议,谁就更接近生态入口。apfel 没有创造新标准,它只是诚实地承认:开发者已经用脚投票了。

好消息背后也有冷水:本地 AI 不是万能药

看到“免费”“本地”“隐私”这几个词,很多人会立刻兴奋起来,仿佛云端大模型从此可以退休了。但现实没这么浪漫。

设备端模型的最大优势,是低延迟、低隐私风险和近乎零调用成本;最大的短板,则是能力上限、上下文长度以及更新速度。云端模型可以一夜之间换代引擎,增加工具调用能力,接入搜索和外部知识库;设备端模型则更像嵌入式能力,稳,但不够野。对于写代码、查资料、复杂推理、多文档处理这些高强度任务,本地模型未必能取代 Claude、GPT 或 Gemini 这类旗舰云服务。

还有一个很现实的问题:苹果愿意让这种“解锁”走多远?apfel 调用的是苹果公开的 FoundationModels 框架,这意味着它不是传统意义上的越狱式破解,而是一次聪明的产品化封装。但苹果向来对平台边界有极强控制欲。一旦这类工具开始影响苹果自己对 Siri、系统 AI 入口乃至商业合作的布局,苹果会不会进一步收紧能力暴露方式?这不是杞人忧天,而是每个苹果生态开发者都熟悉的老故事。

我反而觉得,apfel 最有价值的地方,不在于它现在有多强,而在于它提出了一个很好的示范:未来的个人电脑,AI 不该只是云服务的遥控器,也应该是可编程、可调用、可组合的本地能力。你可以把它接进 shell、脚本、自动化流程、代码工具链里,让 AI 从一个聊天窗口,变成真正的计算平台部件。

这听上去有点技术理想主义,但某种程度上,科技史就是被这种“把系统能力还给用户”的时刻推动的。从 GUI 到浏览器,从 UNIX 工具到移动端 API,很多关键节点都不是因为技术第一次出现,而是因为有人把它做成了普通人和开发者都摸得到的形式。apfel 现在还很小,GitHub star 也不过几百,但它踩中的方向,可能比星标数字本身重要得多。

Summary: apfel 不会颠覆 OpenAI,也不会让 Siri 一夜之间翻身,但它精准地击中了一个正在浮出水面的趋势:AI 正从云端服务,变成终端设备的默认能力。我的判断是,未来一年里,类似“把本地模型做成标准接口”的项目会越来越多,苹果、微软、谷歌都很难再只把 AI 关在自家应用里。真正值得期待的,不是谁家模型更会聊天,而是谁先把设备里的 AI 使用权还给用户。
apfelmacOSApple Silicon Mac本地大模型OpenAI API 兼容本地 AI 推理终端工具本地 HTTP 服务Siri用户对预装 AI 的使用权