Permacomputing 社群整理了一套永续计算原则。它看起来不热闹,没有更大的模型、更快的服务、更无感的体验,反而问一些不讨喜的问题:旧硬件能不能继续用?这次计算有没有必要?系统成本为什么总被藏起来?
这套原则不是政策,也不是成熟行业标准。更准确地说,它是一份社群倡议和设计指南。
但它戳到的地方很硬。今天的科技产业习惯把增长、算力、硬件换代当作进步本身,永续计算偏要把账单翻出来。
这套原则到底在主张什么
Permacomputing 的伦理源头来自永续农业:Earth Care、People Care、Fair Share。放到计算领域,就是数字系统不能只对体验、效率和商业增长负责,也要对生态、劳动、资源分配负责。
它反对的不是技术,而是默认扩张。
| 重点原则 | 它在提醒什么 | 直接影响谁 |
|---|---|---|
| Care for Hardware | 硬件不是一次性耗材,维护和延寿本身就是设计 | 开发者、采购、IT 团队 |
| Not Doing | 不是所有问题都需要软件、自动化或 AI 接管 | 产品经理、业务负责人 |
| Expose the Seams | 不要用“无缝体验”遮住成本、故障和维护责任 | 用户、维护者、监管者 |
| Complexity and Scale | 复杂度和规模不是天然价值,失控后会变成债务 | 架构师、平台团队 |
| Build on Solid Ground | 长期系统别压在短命依赖和脆弱技术栈上 | 公共项目、企业系统 |
最关键的事实锚点是硬件。
数字服务常被包装成云端、轻盈、无形。可芯片不是从云里长出来的。芯片制造高耗能、高污染,材料复杂,回收困难;设备退役后,还会进入电子废弃物链条。
这就是永续计算的底座:硬件不是背景板,而是计算的物质地基。
所以它不是反技术,也不是要回到前数字时代。它更像一套约束:能修就别换,能少算就别多算,能用稳固开放的技术就别把长期系统绑在短命框架上。
这话听着朴素。放在今天,已经很逆风。
对开发者和产品团队,影响不是口号,是动作
对开发者来说,永续计算不是让你停止优化,而是把优化目标改一改。
过去很多工程选择默认追求“更多”:更多依赖、更厚前端、更频繁更新、更高最低配置。结果用户以为设备老了,很多时候只是软件不再尊重设备。
更现实的做法很具体:减少不必要依赖,控制包体和资源占用,保留低性能设备可用路径,延长旧系统支持周期。不是每个团队都能做到极致,但至少别把浪费伪装成现代化。
对产品团队来说,最难的是 Not Doing。
一个功能能做,不等于该做。一个流程能被 AI 接管,不等于接管后总成本更低。尤其在生成式 AI 产品里,单次推理变便宜,常常会刺激更多场景接入。杰文斯悖论讲的就是这个:效率提高后,使用规模可能反而扩大。
技术效率没有错。问题出在商业扩张把效率红利吃掉,还把总消耗继续推高。
| 常见选择 | 永续计算会追问 | 可能的动作 |
|---|---|---|
| 给所有流程加 AI | 是否真的降低总成本,还是只是在制造调用量 | 保留人工入口,限制默认触发场景 |
| 强推新版客户端 | 旧设备是否被软件提前淘汰 | 延长兼容周期,提供轻量版本 |
| 引入复杂技术栈 | 维护者是否承担长期债务 | 少用短命依赖,优先稳定基础设施 |
| 采购新硬件 | 旧设备是否还能维修、复用、转岗 | 延后采购,建立维修和再利用流程 |
对关注 AI、数据中心和数字消费代价的读者来说,判断标准也可以更简单:别只看单次效率,要看总量;别只看体验升级,要看淘汰速度;别只看云端价格,要看硬件、能源、维护和废弃物有没有被藏起来。
这不是要求普通用户为整个产业买单。相反,它是在提醒:用户每次被推着换设备、开订阅、接受默认 AI 功能时,都在参与一套增长机制。
能不能关掉默认功能,能不能继续用旧设备,能不能选择轻量服务,这些小动作不浪漫,但很实际。
真正被挑战的是增长叙事
我更在意的,不是 Permacomputing 能不能马上改变行业,而是它把一个被长期美化的问题摆上桌:科技产业太依赖增长叙事。
更多用户,更多数据,更多模型参数,更多在线时长,更多设备更新。它们经常被统一包装成进步。可进步不是免检标签。
“天下熙熙,皆为利来。”放到算力时代,并不突兀。云服务、AI 模型、硬件厂商、平台产品,都有动力把计算需求做大。用户得到便利,企业得到收入,代价分散到电力、矿产、制造、废弃物和后续维护里。
历史上类似的事并不少见。铁路、电力、报业、电视、互联网平台,都经历过从“提高效率”走向“扩大消费”的阶段。技术确实带来新能力,但商业系统会把能力变成规模,把规模变成依赖。
今天不完全一样。计算的边际成本更低,扩张速度更快,很多成本也更不容易被用户看见。
这正是永续计算锋利的地方。它不把问题简化成“你环保不环保”,而是追问:系统有没有必要这么大?有没有必要这么复杂?有没有必要这么快淘汰?有没有把成本藏到别人那里?
它也有边界。
医疗、科研、气候建模、公共基础设施,确实需要复杂系统和强计算能力。小规模、可维护、节制,不会自动解决所有现代计算需求。把规模化一概打成原罪,并不诚实。
可今天的主流风险不在节制过头,而在扩张太顺手。行业更擅长把欲望写成需求,把替换写成升级,把消耗写成创新。
接下来真正该看三件事:AI 功能会不会从可选变成默认;软件更新会不会继续抬高硬件门槛;企业采购会不会把维修、复用和能耗成本纳入决策,而不是只看短期性能和预算。
如果这些变量不变,永续计算就很难从倡议走向实践。它会成为一面镜子,照出行业知道问题在哪,却不愿停手。
