把 GPU 送上天之后,太空计算终于不再只是 PPT 了

不是“太空云计算”,而是太空版边缘节点
这几年,围绕“把数据中心搬到太空”的故事讲了不少:有人说可以摆脱地面电网约束,有人说能直接利用太阳能,有人甚至已经开始畅想轨道上的 AI 超级工厂。但说实话,在热闹的融资和宏大叙事之外,真正飞上去、而且能干活的计算资源并不多。
现在,事情终于有了一点落地的味道。加拿大公司 Kepler Communications 今年 1 月把目前已知最大的轨道计算集群送入太空:10 颗在轨卫星、约 40 个 Nvidia Orin 边缘处理器,通过激光链路互联。按照 TechCrunch 的报道,这套系统已经吸引了 18 个客户,最新一个是 Sophia Space——一家做太空计算机的创业公司,它准备把自己的专有操作系统上传到 Kepler 的卫星上,在两颗航天器、6 个 GPU 规模上做跨星部署与配置测试。
如果把这件事翻译成人话,它的意义并不是“太空里出现了一个 AWS”,而是:轨道上的算力,第一次开始像基础设施那样被调用。它不再只是单颗卫星上各干各的“小脑袋”,而是被连接成一个能协同工作的网络。这个变化看上去不如火箭发射刺激,但对行业来说,可能更关键。因为从基础设施变成服务,商业化才真正开始。
为什么这件事重要:卫星拍得越来越多,传得越来越慢
太空计算之所以在 2026 年这个时间点突然变得值得关注,并不是因为大家突然迷上了“把机房发射上天”,而是地球上方的传感器越来越强了。高分辨率光学遥感、合成孔径雷达、红外探测、军事预警载荷,这些系统采集的数据量正在爆炸式增长。问题是,卫星能看到的东西越来越多,但带宽、回传窗口和地面处理能力并没有同步变得“无限大”。
这就像你拿着一部能拍 8K 视频的手机,却还在用十年前的上传网速。不是不能拍,而是拍完很难立刻用起来。对于商业遥感公司来说,图像回传慢,意味着分析滞后;对军方来说,目标发现到判断的时间差,可能就是系统价值的分水岭。导弹预警、海上目标识别、灾害监测、边境巡检,这些场景都不喜欢“等数据落地以后再慢慢算”。
Kepler 押注的正是这个环节:让部分计算在轨道上完成,在数据产生的地方先做预处理、筛选、压缩甚至推理,只把真正有价值的结果传回地面。这是一个非常典型的边缘计算逻辑,只不过边缘从手机、摄像头和工厂设备,延伸到了卫星和高空平台。
说得更直接一些,太空计算短期内最现实的生意,不是训练一个轨道上的超级大模型,而是让太空里的传感器“别再当搬运工”,学会自己先做判断。相比那些一上来就要建轨道大型数据中心的宏大蓝图,这条路没那么性感,但更像能先赚到钱的路线。
Kepler 和 Sophia 在赌什么:不是更大的机房,而是更聪明的分布式算力
Kepler CEO Mina Mitry 的表述其实很清晰:他们不把自己定义为“数据中心公司”,而是太空应用的基础设施提供商。这个定位很重要。它意味着 Kepler 想做的,不是一个孤立的轨道算力孤岛,而是一个可被别的卫星、无人机、飞机调用的网络层和处理层。
这和 SpaceX、Blue Origin 以及部分新创公司所描绘的未来并不完全一样。后者更偏向“大型轨道数据中心”的想象:更强的处理器、更大的电力系统、更完整的数据中心架构,甚至把地面高耗能计算的一部分搬上去。Kepler 这条路则朴素得多——先证明分布式、持续在线、针对推理任务优化的小规模轨道集群有实际价值。
Mitry 提到一个很有意思的判断:未来轨道 AI 更需要 inference(推理),而不是 training(训练)。这个观点我基本认同。因为训练任务天然依赖超大规模集群、稳定供电、成熟散热和高吞吐互联,这些恰恰是太空环境最昂贵、最困难的部分。反过来,推理任务更适合分布式部署:目标识别、异常检测、信号分类、图像筛选,这些都可以在较小功耗下高频运行。与其在太空里摆一块“超级但经常闲着”的芯片,不如部署一堆始终在干活的边缘 GPU。
Sophia Space 的加入,则补上了另一块拼图:散热。轨道计算最残酷的问题之一,不是芯片能不能算,而是算起来会不会把自己热坏。地面数据中心可以风冷、水冷、液冷,重设备、重管线都能堆;太空里每多一公斤,都是发射成本。Sophia 想做的是被动冷却的太空计算机,用更轻的方式解决热管理难题。它这次把自研操作系统上传到 Kepler 卫星上测试,本质上是在做一次“去风险验证”——证明软件栈真的能在轨道上跨多台设备运行,而不是实验室里演示得很漂亮。
别小看这个动作。在地面机房里,跨节点启动、配置、调度 GPU 是家常便饭;可在太空里,这几乎是第一次。很多新产业的转折点都不在于“做出一台机器”,而在于“让系统协同工作”。从单机到集群,才是真正的产业化门槛。
军方、遥感和监管焦虑,正在把太空计算往前推
如果只把这件事看成一家创业公司签了个新客户,未免低估了它背后的推动力。Kepler 提到,美国军方已经是这类能力的重要客户,尤其是在新一代导弹防御体系中,卫星需要更快地发现和跟踪威胁。公司此前还向美国政府展示过天地激光链路能力。这些信息放在一起看,信号很明确:轨道边缘计算并不是一个纯商业幻想,它正在与国家安全需求发生实际耦合。
这也解释了为什么相关公司近两年动作频频。Starcloud 融资、Blue Origin 入局、Aetherflux 受到关注,大家都在围绕“太空里的能源、算力与网络”做文章。只不过,行业正在分成两派:一派想复制地面数据中心逻辑,把更大的算力直接搬上去;另一派则像 Kepler 和 Sophia 一样,先从卫星应用和边缘处理切入。
在我看来,后者更像 2020 年代后半段的现实路线。原因很简单:地面数据中心的问题,到了太空不但不会自动消失,很多还会被放大。供电、散热、辐射防护、维护、容错、在轨升级、发射成本、失效回收,每一项都比地面更棘手。太空不是“无限冷、无限电、无限空间”的浪漫背景板,它是一个预算和工程约束都极其严苛的工业现场。
但这场竞赛也确实会因为地面的麻烦而被加速。Sophia CEO Rob DeMillo 提到,美国威斯康星州上周通过了数据中心建设禁令,国会也有人在推动类似方向。虽然“地面不让建,干脆去太空建”听起来有点黑色幽默,但它折射出一个真实焦虑:AI 和云计算正在吞噬电力、土地和水资源,地面社会对数据中心扩张的忍耐度并不是无限的。
如果未来几年,越来越多地区对数据中心审批趋严、能耗和用水约束提高,那么太空计算即便仍然昂贵,也会从“看上去离谱”变成“某些场景下可以认真算账”的替代选项。这并不意味着大规模轨道机房明天就会出现,但会让资本和政府更愿意为早期验证买单。
真正的问题:把算力送上天,究竟是在解决问题,还是把问题换个地方放?
我对这波太空计算热潮的判断是:它值得认真看,但也别急着神化。Kepler 的 40 个 Orin 处理器,放在地面 AI 基础设施的语境里,规模其实并不夸张;可放到近地轨道,它已经是一次非常有象征意义的试验。它告诉市场,轨道计算的商业模型可能不是一夜之间长成巨兽,而是从卫星载荷处理、遥感筛选、军事预警、跨星协同这些具体需求里一点点长出来。
真正值得思考的问题反而更棘手:当我们试图把越来越多算力送上天,是在追求更高效的体系,还是在逃离地面基础设施治理的麻烦?如果地面数据中心面临的是能耗、用水、土地和社区冲突,那么太空数据中心未来会面对什么?太空碎片、轨道拥堵、军民两用边界、在轨失效处置、跨国监管,恐怕一个都不会少。
而且别忘了,太空行业有个老毛病:技术演示和可持续商业之间,常常隔着一整个融资周期。今天能在两颗卫星、6 个 GPU 上跑起来,离明天形成稳定收入、可复制部署、规模化服务,还有很长一段路要走。轨道计算确实已经脱离纯概念阶段,但它距离成为成熟产业,还远不到可以开香槟的时候。
即便如此,我依然认为,这条路正在变得越来越像“真生意”了。原因不复杂:只要传感器继续变强、军方继续追求更快决策、遥感客户继续嫌回传太慢、地面算力继续遭遇电力与监管瓶颈,那么“在数据产生地先算一点”这件事,就会越来越合理。人类把计算机先搬进办公室、再搬进工厂、再搬进手机,下一步搬进轨道,其实也没那么不可思议。
只不过,这一次,服务器是真的在天上转。