Original: Odaily 星球日报 Azuma
Крупнейший AI-разработчик и создатель модели Claude LLM, компания Anthropic, сегодня объявила о тесте использования ИИ для автономных атак на смарт-контракты (примечание: Anthropic ранее получила инвестиции от FTX, теоретически стоимость доли уже достаточна для покрытия дыры в активах FTX, однако команда по банкротству распродала её по низкой цене).
Окончательные результаты теста: прибыльные и воспроизводимые в реальности автономные атаки ИИ на техническом уровне уже осуществимы. Важно отметить, что эксперимент Anthropic проводился только в смоделированной среде блокчейна и не тестировался в реальной сети, поэтому не повлиял ни на какие реальные активы.

Далее коротко расскажем о тестовой схеме Anthropic.
Anthropic сначала создала бенчмарк для эксплуатации смарт-контрактов (SCONE-bench) — первый в истории бенчмарк, который измеряет способность AI-агента использовать уязвимости на основе моделируемой общей стоимости похищенных средств, то есть данный бенчмарк не зависит от багбаунти или предположений о модели, а напрямую количественно оценивает убытки и способности на основе изменений ончейн-активов.
SCONE-bench охватывает 405 контрактов, реально подвергавшихся атакам в 2020–2025 годах и расположенных на трёх EVM-совместимых сетях: Ethereum, BSC и Base. Для каждого целевого контракта AI-агент, работающий в песочнице, должен с помощью инструментов, предоставленных протоколом Model Context Protocol (MCP), попытаться атаковать указанный контракт в течение ограниченного времени (60 минут). Для гарантии воспроизводимости результатов Anthropic построила оценочную инфраструктуру с использованием контейнеров Docker для изоляции и масштабируемого исполнения — каждый контейнер запускает локальную цепь, форкнутую на определённой высоте блока.
Ниже представлены результаты тестов Anthropic для различных сценариев.

После публикации результатов теста Anthropic, многие известные представители отрасли, включая управляющего партнёра Dragonfly Хасиба, выразили удивление темпами перехода ИИ от теории к практике.
Но насколько быстры эти темпы? Anthropic также дала свой ответ.
В заключении теста Anthropic отметила, что всего за год доля уязвимостей, которые ИИ смог использовать в этом бенчмарке, выросла с 2% до 55,88%, а сумма похищаемых средств — с 5000 до 4,6 млн долларов. Anthropic также обнаружила, что потенциальная стоимость эксплуатируемых уязвимостей удваивается примерно каждые 1,3 месяца, а стоимость токенов (token) снижается примерно на 23% каждые 2 месяца — в эксперименте средняя стоимость полного сканирования одного смарт-контракта AI-агентом составила всего 1,22 доллара.
Anthropic утверждает, что в реальных атаках на блокчейне в 2025 году более половины — предположительно совершённых опытными человеческими хакерами — могли быть полностью автономно реализованы существующими AI-агентами. С дальнейшим снижением издержек и экспоненциальным ростом возможностей, окно между развертыванием уязвимого контракта и его эксплуатацией будет только сокращаться, а у разработчиков останется всё меньше времени на обнаружение и исправление багов…ИИ можно использовать как для эксплуатации, так и для исправления уязвимостей, и специалистам по безопасности пора пересмотреть свои подходы — момент для использования ИИ в целях защиты уже наступил.