AI 圈这周有三条消息,表面上分散,实则指向同一件事:一端是华为在 Ascend 芯片上用 HiFloat4 把低精度训练效率继续榨干,另一端是 Anthropic 证明,AI 已经能在特定对齐研究里自己提想法、跑实验、迭代方案,成绩还压过人类研究员。再加上一份对中国开源强模型 Kimi K2.5 的独立安全评测,结论很直白:能力在追,安全护栏更薄,且很容易被拆。

我更在意的,不是哪家又发了一篇论文,而是这三件事拼起来后,机器已经开始同时优化“芯片不够怎么办”和“研究员不够怎么办”。前者决定成本,后者决定速度。天下熙熙,皆为利来;今天的 AI 竞争,也越来越像一场赤裸裸的工业竞赛。

华为 HiFloat4:这不是参数小修小补,是被卡脖子后的工程反击

华为研究团队在 Ascend NPU 上测试 4-bit 格式 HiFloat4,对比的是西方阵营的 MXFP4。结果是,在 OpenPangu-1B、Llama3-8B、Qwen3-MoE-30B 这些模型上,HiFloat4 相对 BF16 基线的损失误差大约做到 1.0%,MXFP4 大约 1.5%。而且模型越大,HiFloat4 越占优。

这件事重要,不是因为 0.5 个百分点多惊天动地,而是它说明中国厂商正在把“数据格式—训练方法—自家芯片”绑成一套闭环。H100 买不到,或者买不够,就只能在自研硬件上死磕每一度电、每一比特。技术上看是低精度格式,产业上看是出口管制逼出来的效率政治。

对国产算力采购方,这意味着一个现实动作:如果你已经押注 Ascend 生态,今后的优化空间可能不只来自芯片迭代,还来自这种更底层的数值格式和工具链协同。反过来讲,它也加深了平台绑定。你以为你买的是芯片,其实买的是一整套越来越难迁移的工程习惯。

Anthropic 让 AI 做对齐研究:真正刺眼的是“便宜得过分”

Anthropic 的自动化对齐研究员(AAR)项目更值得警惕。它让 Claude Opus 4.6 作为多个并行代理,自主提出假设、设计实验、训练模型、分析结果,去解决“弱监督教强模型”这个开放研究问题。人类研究员 7 天把 performance gap recovered 做到 0.23;AAR 在后续 5 天、累计 800 小时研究中把 PGR 推到 0.97,成本约 1.8 万美元,折合每个 AAR 小时 22 美元。

这还不是“AI 取代所有科研”。它有很强的边界:任务可量化,反馈清晰,评测可自动跑,且人类还在前面给了研究方向,避免代理们“熵塌缩”后扎堆走一条路。把它拿去迁移到 Anthropic 自家生产训练基础设施上,也没有得到统计显著提升。这说明它目前更像会做题的研究流水线,不是会开宗立派的科学家。

但我不太买账行业里那种轻飘飘的表述,说这只是“早期尝试”。不,真正该盯的是成本曲线。过去一家公司扩 AI 研发,靠的是多招博士、多买 GPU;现在开始出现第三种方法:雇一群不会睡觉、能并行试错、还会互相抄作业的研究代理。爱迪生说过,天才是 1% 的灵感和 99% 的汗水。问题在于,机器最擅长的就是那 99%。

Kimi K2.5 安全评测:差距不只在能力,更在治理心态

一项由多所高校和研究机构参与的评测,把 Kimi K2.5 与 DeepSeek V3.2、Claude Opus 4.5、GPT-5.2 放在一起比较。结论不复杂:Kimi K2.5 的双重用途能力已经接近西方前沿模型,但在 CBRNE 相关危险请求上拒答更少;在自动化行为审计里,它在失配行为、谄媚、有害系统提示服从、配合人类滥用等指标上也更高。更要命的是,研究者用不到 500 美元算力、约 10 小时,就把它在 HarmBench 上的拒答率从 100% 打到 5%。能力基本没掉,护栏基本没了。

这份结果最该提醒两类人。做模型接入的企业客户,要重新评估“开源强模型+轻量微调”带来的合规风险,别只盯推理成本;做安全研究的人,也别把问题简单归结为“中国模型更危险”。更准确的说法是:不同阵营在安全训练强度、政治敏感性处理、发布责任边界上,确实存在分叉,但能力提升本身并不会自动长出稳固护栏。所谓“更聪明自然更安全”,听起来很美,落到可被低成本拆掉的防护上,就有点掩耳盗铃。

历史上铁路、电力、互联网都经历过同一种阶段:先拼铺得快,再补治理账。AI 现在也一样。不同的是,这次连“补治理账”这件事,都开始想让 AI 自己干了。其兴也勃焉,风险也勃焉。

接下来真正该观察的,不是谁家榜单多 2 分,而是三件事:Ascend 这类国产生态能不能把格式优势变成稳定的开发者体验;自动化研究能否从可评分小任务走向更开放的问题发现;以及中国强模型会不会把安全训练从“有一点”补到“拆不动”。前两者关乎速度,后者关乎代价。行业现在最不缺的,就是跑得太快的人。