每月 10 美元用上百亿参数大模型?sllm 想把 AI 算力做成“拼车生意”

把大模型做成“月卡”,这事听上去就很互联网
打开 sllm 的页面,第一眼很像某种云服务平台,第二眼又像视频网站的会员购买页。你可以看到一排热门模型:llama-4-scout-109b、qwen-3.5-122b、glm-5-754b、kimi-k2.5-1t、deepseek-v3.2-685b、deepseek-r1-0528-685b。价格也简单粗暴,分成 10 美元和 40 美元两个档位,承诺周期要么 1 个月,要么 3 个月。平台还把每个模型的大致吞吐量、可用槽位、剩余名额都摆在台面上,像极了你准备加入一个共享资源池前最后的心理建设。
如果用一句通俗的话概括,sllm 想做的并不是“再造一个大模型”,而是把大模型的使用权重新打包。它卖的不是模型本身,而是一个“以相对低价共享高端推理资源”的机会。今天大家已经很熟悉共享单车、共享充电宝、拼车,sllm 则像是在说:既然一个 600B 甚至 1T 级别模型的推理成本高得离谱,那不如把这些能力切成可订阅的席位,让更多人一起分摊。
这件事听起来并不性感,甚至没有那种“新模型刷新榜单”的炸裂感,但它非常现实。因为 AI 产业走到 2025 年,越来越多创业者和开发者真正头疼的问题,已经不是“有没有模型可用”,而是“怎么以不肉疼的成本持续用下去”。从这个角度看,sllm 的产品逻辑反而有一种朴素的聪明:先别谈 AGI,先让人用得起。
在 API 和私有部署之间,市场一直缺一块“中间地带”
过去两年,大模型服务的主流路径大致只有两条。第一条是走 API,按 token 付费,省心、省运维,但一旦调用量上来,账单会越来越像一封恐吓信。第二条是自己部署开源模型,理论上自由度高,还能做私有化,但真到落地层面,机器采购、显存需求、调参、稳定性、并发控制,每一项都能把小团队折腾到怀疑人生。
sllm 押注的,其实正是这两条路之间那块长期被忽略的真空区。它不是最自由的方案,也不是最专业的方案,但可能是很多人“最能承受”的方案。对独立开发者来说,每月 10 美元就能接触 122B 级别的 Qwen 3.5,或者 109B 的 Llama 4 Scout,这个门槛比自己租一张高端 GPU 低太多。对刚起步的小团队而言,40 美元一个月去试用 DeepSeek、GLM 甚至 Kimi 这类更大模型,也比一开始就押注长期 API 支出更容易下决心。
这背后折射出一个越来越明显的趋势:AI 正在从“技术能力的竞赛”进入“交付形态的竞赛”。模型本身固然重要,但真正决定普及速度的,往往是包装方式、付费方式和可获得性。就像早年云计算真正击穿传统 IT 采购,并不只是因为服务器更强,而是因为它把“买机器”变成了“按需租能力”。sllm 的尝试虽然小,但方向上和那段历史有一点神似:它试图把高门槛算力,改造成更像消费品的体验。
便宜并不等于没有代价,共享模型的边界也很清楚
当然,天下没有白送的 GPU。sllm 页面上写得很坦白,每个模型都有吞吐量区间,也有可用席位限制。比如 qwen-3.5-122b 标注大约 31 tok/s,deepseek-v3.2-685b 和 deepseek-r1-0528-685b 大约 20 tok/s,kimi-k2.5-1t 更低一些,大约 15 tok/s。你一看就知道,这不是“独享顶配服务器”的体验,而是一种在预算可控前提下接受资源共享的折中方案。
这种方案的优点,是把高端模型从“看得见摸不着”变成“可以实际试试”。缺点也很明显:性能稳定性、峰值时段等待、上下文长度限制、任务类型适配、隐私和数据合规,都会成为用户真正开始重度使用后必须面对的问题。尤其是企业用户,可能不会因为每月 40 美元的价格就立刻心动,因为他们更关心 SLA、日志策略、数据留存和访问控制。个人用户和小团队能接受“偶尔排队”,企业不一定行。
这里还有一个更值得讨论的问题:共享订阅究竟是过渡形态,还是未来大模型消费市场的一条长期路线?我的判断是,它大概率会长期存在,但更像“经济舱”而不是“商务舱”。也就是说,它不会替代高端 API、专属部署和企业私有云,但会成为 AI 普及过程中的一个重要分层产品。就像不是每个人都需要买车,但很多人需要打车;不是每家公司都要自建机房,但很多团队需要能立刻上线的计算资源。
为什么这个时间点值得关注:模型在狂飙,普通人却越来越算不过账
如果把时间拉长看,2023 年的大模型行业还在卷“谁更聪明”,2024 年开始卷“谁更便宜”,到了 2025 年,问题已经变成“谁能把聪明和便宜同时稳定地交付出来”。这也是 sllm 这种平台出现的真正背景。模型能力在快速提升,参数规模越来越夸张,但很多用户的真实感受却是:选择变多了,成本决策反而更复杂了。
尤其是开源模型阵营的崛起,让这种矛盾更加尖锐。Qwen、DeepSeek、Llama、GLM、Kimi 这一批名字背后,代表的是一个新的现实:高性能模型不再只掌握在少数闭源巨头手里。问题随之变成,谁来做“最后一公里”的交付。以前我们讨论 AI 产品,经常盯着 OpenAI、Anthropic、Google、Meta 这些头部公司,现在越来越不能忽视这类基础设施分发平台。它们也许不生产模型,但它们决定了模型到底是停留在榜单里,还是进入更多人的工作流里。
说得再直白一点,AI 行业接下来拼的,未必只是“最强大脑”,还有“最顺手水龙头”。用户不关心你后台有多少 GPU,他们在意的是,能不能以一个像样的价格,把一个像样的结果稳定吐出来。谁能做到这一点,谁就有机会吃到真正的大众市场。
我个人对 sllm 这类模式是谨慎乐观的。乐观在于,它确实击中了市场空白,也抓住了当前 AI 使用成本居高不下的痛点;谨慎在于,共享算力平台最难的从来不是做网页和接支付,而是如何在高并发、低价格和可预期体验之间维持平衡。一旦用户增长快过基础设施扩容速度,便宜很容易迅速变成“不好用”。互联网历史已经反复证明,低价是最锋利的武器,但也是最脆弱的承诺。
这不只是一个网站上线,而是 AI 普惠正在进入更“烟火气”的阶段
很多科技产品刚出现时都很宏大,张口闭口改变世界;真正能留下来的,反而常常是那些先解决日常麻烦的工具。sllm 给我的感觉就是后者。它没有发布新的基础模型,没有宣称自己重新定义人工智能,只是把一堆本来昂贵、零散、门槛不低的能力,打包成了更接地气的订阅制服务。某种程度上,它像是 AI 世界里的 Costco,也像是大模型时代的“共享会员卡”。
这种产品未必会成为行业舞台中央的主角,但它们很可能是让更多人真正走进 AI 时代的侧门。一个学生、一个独立开发者、一个只有三五个人的小团队,他们可能不会自己部署 685B 模型,也不会轻易签下一大笔 API 预算,可他们愿意掏 10 到 40 美元去试试。这种“先用起来”的意愿,比任何一场宏大的发布会都更有现实意义。
更进一步看,sllm 还提醒了整个行业一件事:AI 的竞争,终究会从实验室走向账单。模型能力继续进化当然重要,但如果使用门槛迟迟降不下来,所谓“全民 AI”就始终差一口气。今天我们看到的是一个并不起眼的网站,明天也许会出现更多类似服务,把推理资源做成包月、做成套餐、做成阶梯会员,甚至做成像移动流量那样的标准消费品。那时候,大模型才算真正从少数人的玩具,变成多数人的工具。