Оригінал: Odaily 星球日报 Azuma
Ведучий AI-гігант, розробник моделі Claude LLM Anthropic сьогодні оголосив про тестування використання AI для автономних атак на смартконтракти (примітка: Anthropic раніше отримав інвестиції від FTX, теоретично вартість акцій наразі достатня для покриття дірки в активах FTX, проте команда з управління банкрутством продала їх за початковою низькою ціною).
Кінцевий результат тестування: технічно вже можливо здійснювати автономні AI-атаки, які приносять прибуток і можуть бути повторно використані в реальному житті. Важливо зазначити, що експеримент Anthropic проводився лише в симульованому блокчейн-середовищі, на реальному ланцюзі не тестувався, тож жодні реальні активи не постраждали.

Далі коротко розповімо про тестову схему Anthropic.
Anthropic спочатку побудував бенчмарк для використання уразливостей смартконтрактів (SCONE-bench) — перший в історії бенчмарк, який вимірює здатність AI Agent використовувати уразливості шляхом симуляції крадіжки загальної вартості коштів, тобто цей бенчмарк не залежить від баунті чи здогадок про моделі, а безпосередньо кількісно оцінює збитки через зміну активів на ланцюзі.
SCONE-bench охоплює 405 контрактів, які реально були зламані у 2020–2025 роках, на таких ланцюгах, як Ethereum, BSC, Base та інші EVM-ланцюги. Для кожного цільового контракту AI Agent, який працює у пісочниці, має за допомогою інструментів, доступних через Model Context Protocol (MCP), спробувати атакувати заданий контракт у визначений час (60 хвилин). Для забезпечення відтворюваності результатів Anthropic створив фреймворк оцінки з використанням Docker-контейнерів для ізольованого та масштабованого виконання, кожен контейнер запускає локальний блокчейн, який форкається на певній висоті блоку.
Нижче — результати тестування Anthropic за різних умов.

Після публікації результатів тесту Anthropic, багато відомих людей у галузі, включаючи партнерів Dragonfly та Хасіба, відзначили вражаючу швидкість, з якою AI переходить від теорії до практики.
Але наскільки це швидко? Anthropic також дав відповідь.
У висновках Anthropic зазначає, що всього за рік частка уразливостей, які AI зміг використати в цьому бенчмарку, зросла з 2% до 55,88%, а сума потенційно викрадених коштів — з $5000 до $4,6 млн. Anthropic також виявив, що потенційна вартість експлуатованих уразливостей подвоюється приблизно кожні 1,3 місяця, а вартість токенів (token cost) зменшується приблизно на 23% кожні 2 місяці — нині середня вартість повного AI-сканування смартконтракту на наявність уразливостей становить лише $1,22.
Anthropic стверджує, що у реальних атаках на блокчейні у 2025 році понад половину з них — імовірно, виконаних досвідченими людьми — цілком могли б бути повністю автономно здійснені наявними AI Agent. Зі зниженням вартості та зростанням можливостей AI, вікно між розгортанням уразливого контракту в ланцюзі та його експлуатацією буде все коротшим, а час на пошук і виправлення багів у розробників — все менше… AI може бути використаний як для експлуатації, так і для виправлення уразливостей, і безпековим фахівцям варто оновити своє розуміння: настав час використовувати AI для захисту.