文章

antirez 说 AI 安全不是算力竞赛,而是智力竞赛 —— 他说对了

antirez 说 AI 安全不是算力竞赛,而是智力竞赛 —— 他说对了

Redis 之父 antirez 昨天发了一篇短文,标题是 “AI cybersecurity is not proof of work”。文章不长,但切中了一个被大多数人忽略的要害。

核心论点:AI 在网络安全领域的攻防,不是谁 GPU 多谁赢。

Proof of Work 的类比为什么不成立

很多人直觉上认为,AI 安全就像比特币挖矿 —— 攻击方和防御方比拼算力,谁的 GPU 集群更大谁就占优。这个类比听起来合理,但 antirez 指出了一个关键区别:

哈希碰撞是确定性的。给足够的算力,你一定能找到满足条件的解。N 越大越难,但本质上是资源问题。

Bug 不是。

代码的状态空间是有限的。当你用 LLM 反复采样同一段代码找漏洞时,模型能探索的分支最终会饱和。跑一百万次和跑一千万次,结果可能没有区别。真正的瓶颈不是采样次数 M,而是模型的智力水平 I。

OpenBSD SACK Bug:一个完美的反例

antirez 用了一个具体的例子 —— OpenBSD 的 SACK 漏洞。这个 bug 的触发需要理解三个独立条件的组合:

  1. 窗口起始值缺少验证(看起来无害,因为有 start < end 的检查)
  2. 整数溢出问题
  3. 一个理论上不应该进入的分支实际被执行了

弱模型面对这段代码会怎样?它会幻觉出一个漏洞 —— 模式匹配到”缺少验证”这个特征,然后声称发现了问题,但完全不理解为什么这三个条件组合在一起才构成真正的威胁。

更有意思的是 antirez 观察到的一个悖论:模型越强(但还不够强到真正理解),越不太可能报告这个 bug。因为更强的模型幻觉更少,它能看到单独每个条件都不构成问题,于是判断代码是安全的。只有真正达到某个智力阈值的模型,才能把三个条件串联起来,理解组合效应。

这不是一个连续的能力曲线,而是一个阶跃函数

对 AI 安全行业的启示

如果 antirez 是对的(我认为他是对的),那么 AI 安全的竞争格局会和大多数人预期的不同:

不是军备竞赛,是智力竞赛。 堆 GPU 跑更多次扫描不会让你发现更多 0day。你需要的是更聪明的模型,而不是更多的模型实例。

先发优势属于模型能力领先者。 谁先训练出能真正理解复杂漏洞链的模型,谁就在攻防两端都占据优势。这不是靠钱能砸出来的 —— 至少不是线性关系。

防御方可能天然处于劣势。 攻击方只需要找到一个漏洞,防御方需要找到所有漏洞。如果发现能力是阶跃式的,那么在模型能力跨过阈值之前,防御方基本是盲的。

弱模型不只是”没用”,可能是”有害”的。 弱模型的幻觉会产生大量误报,消耗安全团队的精力去验证不存在的漏洞。这比没有 AI 辅助可能更糟。

一点个人看法

antirez 这篇文章让我想到一个更大的问题:我们是不是在很多 AI 应用场景里都犯了同样的错误 —— 用”更多算力”的思路去解决本质上是”更高智力”的问题?

代码审查、架构设计、技术决策 —— 这些领域的 AI 应用,可能都存在类似的阶跃函数。不是跑得更多就更好,而是要跨过某个理解力的门槛。

这也是为什么在选择 AI 工具时,模型能力比价格更重要。便宜的模型跑一万次,不如聪明的模型跑一次。

如果你也在不同模型之间做选择和对比,推荐试试 OfoxAI(ofox.ai)— 一个账号接入 Claude、GPT、Gemini 等主流模型,方便在不同智力水平的模型之间快速切换和验证。


原文:AI cybersecurity is not proof of work — antirez, 2026-04-16

本文由作者按照 CC BY 4.0 进行授权