量子计算离“破密时刻”又近了一步:这次先紧张的,可能不只是币圈

安全 2026年4月1日
量子计算离“破密时刻”又近了一步:这次先紧张的,可能不只是币圈
两份最新白皮书给出的结论很扎眼:破解支撑互联网和加密货币安全的椭圆曲线加密,量子计算机所需资源比过去估算少了一个数量级,甚至更多。这不意味着“明天世界密码体系就崩了”,但它确实在提醒所有还没完成后量子迁移的企业和政府——Q Day 不是科幻设定,而是一场正在逼近的工程现实。

不是狼来了,但狼的脚步声更清楚了

量子计算威胁加密这件事,过去很多人听得耳朵起茧:Shor 算法早在 1994 年就告诉我们,只要足够强大的量子计算机出现,今天广泛使用的 RSA 和椭圆曲线加密(ECC)都会变得脆弱。但问题一直不在“原理上能不能”,而在“现实里要多大的机器、多久才能做到”。

现在,答案突然比去年更不那么夸张了。Ars Technica 报道提到,两份独立研究都在下调破解 ECC 所需的量子资源。一份来自中性原子路线的研究,认为破解 256 位 ECC 可能只需要不到 3 万个物理量子比特,在 10 天内完成,资源开销比此前估算缩小了约 100 倍;另一份来自 Google 的论文,则称针对比特币常用曲线 secp256k1 的攻击,可以在不到 10 分钟内完成,且所需资源较此前优化结果再下降约 20 倍。

别急着把银行 App 卸载,也别急着宣布比特币“当场去世”。这两篇都还没有经过同行评审,真正能运行这类攻击的容错量子计算机也并不存在。可它们的信号非常明确:过去大家总爱把“量子破密”放在遥远未来,当作一种适合写进 PPT 的风险;现在,它越来越像一件需要写进预算、采购和合规清单里的事情。

真正的变化,不只是算法更快,而是机器更像样了

这次最抓眼球的,是中性原子架构。相比超导量子计算那种在二维平面上排排坐、只能和附近邻居交互的方式,中性原子方案像是把量子比特从拥挤的居民楼搬到了可以自由调度的广场。研究团队用激光把单个原子困在所谓“光镊”里,再通过光学复用排成大规模阵列。它的关键优势,是量子比特之间可以进行更灵活的“非局域”通信。

这听起来很学术,翻译成人话就是:做纠错时,大家终于不用总绕远路了。量子计算最头疼的事情,从来不是算不算得出来,而是量子比特太娇气,稍微和环境互动一下就可能出错。容错量子计算之所以难,是因为你往往需要为一个“能稳定工作的逻辑量子比特”堆上成百上千个物理量子比特,像给一个极易感冒的人套上无数层羽绒服。中性原子路线的价值,在于它有机会把羽绒服层数削薄很多。

这也是为什么白皮书里那句“少至 1 万个可重构原子量子比特即可运行 Shor 算法”会让安全圈坐直身子。去年已有团队展示超过 6000 个中性原子俘获阵列,如果硬件规模和保真度继续推进,这条路线确实可能比很多人原先想象得更快进入“有用但危险”的区间。

说得再直白一点:量子计算过去常被质疑是“科研秀场”,每次刷新纪录都像体育新闻,热闹但离普通人很远。可一旦它开始和 ECC、TLS、数字签名、区块链这些现实世界的基础设施产生明确交集,它就不再只是物理学家的玩具,而是整个数字社会的基础安全问题。

Google 盯上比特币,真正该紧张的却是整个互联网

Google 那篇论文更有戏剧性。它聚焦的不是抽象的 ECC,而是 secp256k1——比特币和很多区块链系统赖以运行的那条椭圆曲线。Google 研究人员称,他们已经把求解椭圆曲线离散对数问题的量子电路编译得更高效:一种方案少于 1200 个逻辑量子比特和 9000 万个 Toffoli 门,另一种少于 1450 个逻辑量子比特和 7000 万个 Toffoli 门。折算下来,大约需要 50 万个物理量子比特。

这数字依然大得离谱,但和过去相比,已经不是“科幻级离谱”,而更像“非常难、但工程上开始能讨论”的量级。更耐人寻味的是,Google 没公开这些算法优化细节,只给出一个零知识证明,数学上证明“我们确实有改进”,但不把攻击蓝图交出来。理由也很现实:一旦量子密码分析开始逼近实用边界,继续像过去那样公开所有细节,可能会被恶意方利用。

这一下就把安全研究圈里一个老争议点重新炸出来了:负责任披露,到底该披露到什么程度?Google 当年 Project Zero 以 90 天披露机制闻名,推动了漏洞治理文化;如今面对量子密码分析,它却主动踩了刹车。这种转向其实能理解,因为这里的“漏洞”不是某家公司的代码错误,而是整个经典公钥密码体系的结构性风险。可反对者也有道理:既然连可用机器都还没有,现在就神神秘秘地藏着算法细节,难免让人觉得公关意味重于实质威胁。

我更在意的,是 Google 把叙事重心放在加密货币上。比特币当然醒目,也容易制造标题,但量子对 ECC 的威胁远不止币圈。HTTPS 证书、软件更新签名、企业 VPN、电子合同、政府身份系统,乃至你手机里那些“正在验证服务器身份”的瞬间,背后都有公钥密码学的影子。真要到了实用级 CRQC(具备密码学相关意义的量子计算)出现那一天,最狼狈的未必是炒币的人,可能是那些还在用老系统、又迁移缓慢的大型机构。

比“被偷走今天的钱”更麻烦的是“先偷数据,等未来再解”

很多人会本能地觉得,只要量子计算机还没出来,今天的数据就是安全的。这个判断只对了一半。安全行业这些年一直在强调一个并不新鲜、却常被忽视的风险:"harvest now, decrypt later",先收集、后解密。

意思是,攻击者今天就可以大量窃取加密通信、备份文件和敏感档案,先存起来,等未来量子机器成熟后再统一解密。对于保密期只有几天的聊天记录,这也许不算致命;可如果是医疗记录、外交文件、国防数据、关键基础设施设计图,或者企业几十年有效的商业机密,时间本身就是风险放大器。

这也是为什么美国 NIST 推动后量子密码标准已经不是纸上谈兵,而是进入了各国政府和大型企业的迁移周期。过去两年里,浏览器、云厂商、芯片厂商和操作系统平台都在试水 PQC(后量子密码)混合部署:不是因为量子计算明天就来,而是因为密码迁移从来不是“打个补丁”那么简单。它牵涉证书体系、硬件模块、协议兼容、性能损耗、供应链认证,像一场边飞边换发动机的航空维修。

如果你觉得这听起来很遥远,不妨想想 Y2K、IPv6、甚至近年的 AI 安全治理。真正折腾人的,从来不是技术突破本身,而是整个产业对突破到来的准备速度。量子计算对加密的威胁也是一样:最危险的局面不是有人率先造出了能破密的机器,而是那台机器出现时,大多数关键系统还没来得及换锁。

一个越来越现实的问题:我们会不会总是低估“拐点”来临的速度?

科技史上最容易出错的判断之一,就是把新技术长期高估、短期低估,或者反过来。量子计算过去十年,经历过明显的 hype 周期:融资、估值、路线之争、一次次“里程碑”发布,让很多人对它产生了免疫力,觉得它永远在未来五年。但这次不太一样,变化不只是实验室里多做了几个量子门,而是硬件架构和算法优化在同时压缩资源需求。

这很像火箭工业从“理论能上天”走向“发射成本能否打下来”的阶段。真正改变世界的,往往不是第一性原理,而是成本曲线。只要破解 ECC 所需的量子资源继续快速下降,行业心态就一定会从“等等看”转向“现在就得换”。

当然,我并不认为所谓 Q Day 会突然像灾难片一样在某个清晨降临,然后全网 SSL 一夜蒸发。现实更可能是一个不均匀、分层次的过程:先是政策和标准升级,然后是大型云服务、浏览器和政府系统率先迁移,再之后才轮到那些遗留系统、工业设备和中小企业慢慢补课。真正危险的,恰恰是迁移最慢、资产最重、又最不擅长升级的一群人。

眼下最值得思考的问题,反而不是“量子什么时候能破解比特币”,而是:当研究界已经开始因为担心滥用而减少公开细节,安全行业是否也该调整自己的节奏?技术透明一直是安全研究的底色,但在量子时代,完全公开与负责任克制之间,或许真的需要一条新边界。这条边界怎么画,不只是学术问题,更是政策、产业和公共利益之间的再平衡。

如果说过去几年 AI 让人重新思考“能力增长太快时,规则如何跟上”,那么量子计算正在对密码学世界提出同样的问题。只不过这一次,系统提示框不会弹出来提醒你升级。它只会在某一天,让那些迟迟没换的新锁,显得格外古老。

Summary: 我的判断是,量子计算距离大规模实际破密仍有工程鸿沟,但“所需资源快速下降”本身已经足够改变产业决策。未来三到五年,后量子密码迁移会从安全团队的前瞻项目,变成董事会层面的现实议题。真正值得警惕的不是某篇论文夸不夸张,而是当拐点来临时,太多系统还停留在“等技术成熟了再说”的旧节奏里。
量子计算后量子密码迁移椭圆曲线加密ECCShor算法RSAGoogle比特币secp256k1Q Day