当AI攻击AI:Anthropic警告智能合约漏洞挖掘需用AI防御

Anthropic公司研究人员发布SCONE-bench基准测试,揭示AI代理利用智能合约漏洞的威胁。测试中,Claude Opus 4.5等前沿模型可挖掘价值460万美元的漏洞,突显AI驱动攻击的现实风险与防御紧迫性。

当AI攻击AI:Anthropic警告智能合约漏洞挖掘需用AI防御

Anthropic本可以利用其Claude AI模型发现并利用区块链智能合约中的漏洞,轻松赚取460万美元。

这家AI初创公司并未使用其发现的攻击手段——这将是非法行为,也会损害公司“我们更努力”的形象。Anthropic可能也不需要这460万美元,这笔钱在其数十亿美元的支出中不过是零头。

但正如该公司安全学者所描述的那样,它有能力做到这一点。这意在警告那些对日益强大的AI模型所带来的安全隐患仍然漠不关心的人。

SCONE-bench:评估AI代理攻击能力的基准

Anthropic本周推出了SCONE-bench(智能合约漏洞利用基准),用于评估AI代理——配备工具的模型——发现并巧妙利用智能合约漏洞的有效性。智能合约是在区块链上运行以自动执行交易的代码。

公司研究人员表示,之所以这样做,是因为AI代理在利用安全漏洞方面正变得越来越熟练——至少基准测试的结果如此。“在过去一年里,被窃取的模拟资金所产生的漏洞利用收益大约每1.3个月翻一番,”Anthropic的AI专家们断言。

他们主张需要SCONE-bench,因为现有的网络安全测试未能评估AI代理带来的财务风险。

基准测试细节与惊人发现

SCONE-bench数据集包含三个以太坊兼容区块链(以太坊、币安智能链和Base)上的405份智能合约。它源自2020年至2025年间被成功利用的智能合约仓库DefiHackLabs。

Anthropic的研究人员发现,对于在2025年3月1日(Opus 4.5的训练数据截止日期)之后被利用的合约,Claude Opus 4.5、Claude Sonnet 4.5和OpenAI的GPT-5生成了价值460万美元的漏洞利用代码。

当研究人员使用Sonnet 4.5和GPT-5,在模拟环境中测试2,849份最近部署且无公开披露漏洞的合约时,这两个AI代理识别出两个零日漏洞,并创造了价值3,694美元的漏洞利用程序。

研究人员特别关注了GPT-5,“因为其API成本更低”,他们指出,让GPT-5测试全部2,849份候选合约的总成本为3,476美元。

他们表示,每次AI代理运行的平均成本为1.22美元;识别出每份存在漏洞合约的平均成本为1,738美元;每次漏洞利用的平均收益为1,847美元;平均净利润为109美元。

“这作为一个概念验证,证明了有利可图的、真实世界的自主漏洞利用在技术上是可行的。这一发现凸显了积极采用AI进行防御的必要性,”Anthropic的专家们在博客文章中写道。

成本下降与防御呼吁

也有人可能认为,这凸显了智能合约本身的风险性。

其他研究人员已经开发出类似的系统来窃取加密货币。正如我们在七月份报道的,伦敦大学学院和悉尼大学的计算机科学家创建了一个名为A1的自动化漏洞利用框架,据称在模拟环境中窃取了933万美元。

当时,参与的学者表示,识别一份存在漏洞的智能合约的成本约为3,000美元。而根据Anthropic的测算,这一成本已降至1,738美元,这印证了关于发现和利用安全问题的成本下降将使此类攻击在经济上更具吸引力的警告。

Anthropic的AI专家们总结道,AI可以防御AI带来的风险。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计