L'audit AI entre dans la pratique, OpenAI publie EVMbench, renforçant l'évaluation de la sécurité des contrats intelligents

ETH-0,16%
WELL-0,06%

OpenAI s’associe à Paradigm pour lancer EVMbench, une évaluation pratique des capacités de défense et d’attaque des agents IA dans les contrats EVM, révélant des faiblesses en défense face à une forte attaque.

Focus sur l’évaluation dans un contexte économique réel, OpenAI et Paradigm renforcent la notation de sécurité en chaîne

Le leader en intelligence artificielle, OpenAI, annonce une collaboration avec la société de capital-risque en cryptomonnaie Paradigm et la société de sécurité OtterSec pour lancer EVMbench, un outil de référence conçu pour évaluer la performance des agents IA (AI Agents) dans la sécurité des contrats intelligents sur la machine virtuelle Ethereum (EVM).

Avec l’intégration profonde de l’IA et des technologies cryptographiques, les contrats intelligents sont devenus l’infrastructure centrale pour gérer plus de 1000 milliards d’actifs cryptographiques open source. La sortie de cet outil marque le début d’une reconnaissance par l’industrie de la capacité pratique de l’IA dans un environnement « économiquement significatif ».

L’équipe d’OpenAI souligne qu’avec les progrès des agents IA dans la rédaction et la planification de code, ces modèles joueront un rôle transformateur dans les attaques et défenses blockchain à l’avenir. Il est donc crucial d’établir une architecture d’évaluation standardisée pour suivre leur évolution.

Trois modes d’évaluation approfondie, 120 vulnérabilités d’audit réelles comme pierre de touche pour l’IA

Le cœur de conception d’EVMbench repose sur 120 vulnérabilités à haut risque extraites de 40 rapports d’audit spécialisés, provenant notamment de compétitions d’audit publiques renommées comme Code4rena, garantissant que les scénarios de test reflètent la complexité du monde réel. Cet outil de référence évalue les agents IA selon trois modes de fonctionnement différents :

Source : OpenAI La conception centrale d’EVMbench consiste à évaluer l’agent IA dans trois modes de fonctionnement différents

  • Le premier est le « mode détection (Detect) », où l’IA doit auditer le code des contrats et identifier les vulnérabilités connues, en leur attribuant une note selon leur gravité ;
  • Le second est le « mode correction (Patch) », où l’IA doit supprimer les vulnérabilités exploitables tout en conservant la fonctionnalité d’origine, puis réparer le code ;
  • Enfin, le mode « exploitation (Exploit) » très controversé, où l’IA doit exécuter une attaque complète de vol de fonds dans un environnement blockchain sandboxé.

Pour garantir la rigueur et la reproductibilité des tests, l’équipe a développé une architecture de test basée sur le langage Rust, utilisant une technique de replay transaction déterministe pour vérifier si l’attaque ou la correction de l’IA ont réussi.

Tendance à l’attaque accrue face à la défense, GPT-5.3-Codex montre une croissance impressionnante en capacité d’attaque

Dans les premiers résultats de test, on observe une différence notable de performance entre différentes tâches. La dernière génération, GPT-5.3-Codex, excelle en mode exploitation (Exploit Mode), avec un score de 72,2 %, contre seulement 31,9 % pour le modèle GPT-5 publié il y a six mois. Cela témoigne d’une croissance spectaculaire des capacités.

Source : OpenAI Résumé des scores des différents modèles IA dans les trois modes

Cela indique qu’en ciblant clairement « vider les fonds », l’IA possède une capacité puissante de planification et d’exécution itérative. Cependant, ses performances en défense restent faibles : en mode détection, l’IA s’arrête souvent après avoir trouvé une seule erreur, et lors de la correction de logiques complexes, elle a du mal à réparer parfaitement sans affecter le fonctionnement normal du contrat. Les experts en sécurité expriment leur inquiétude, estimant que l’IA pourrait réduire considérablement le temps entre la découverte d’une vulnérabilité et le développement d’une attaque, ce qui impose des exigences accrues pour la défense des projets DeFi.

Recrutement de talents et subventions pour la défense, OpenAI construit un écosystème sécurisé pour les agents IA

Au-delà du développement d’outils, OpenAI multiplie les actions en matière de recrutement et de défense de l’écosystème. Récemment, ils ont embauché Peter Steinberger, fondateur du projet open source d’agents IA OpenClaw, pour diriger le développement de la prochaine génération d’agents personnalisés, en transformant ce projet en une fondation soutenue par OpenAI.

Pour faire face aux risques de cybersécurité liés à l’IA, OpenAI s’engage à allouer 10 millions de dollars via son programme de subventions en sécurité réseau, pour soutenir la recherche sur des outils de défense open source et des infrastructures critiques. Cette initiative intervient notamment après l’incident récent du protocole Moonwell, où une erreur dans le code partagé par l’IA a entraîné une perte d’environ 1,78 million de dollars.

Lectures complémentaires
Refus de l’offre de Meta de plusieurs milliards, le créateur d’OpenClaw rejoint OpenAI dans la guerre des talents, tout est une erreur de Vibe Coding ? Moonwell prédit une panne, qui paiera pour la perte de 1,78 million ?

À l’avenir, avec l’intégration croissante d’agents de paiement stables alimentés par IA et de portefeuilles automatisés dans l’écosystème, la capacité à distinguer les modèles capables uniquement de décrire des vulnérabilités de ceux capables de fournir des solutions de défense fiables grâce à des outils comme EVMbench deviendra un tournant clé pour la sécurité blockchain.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Aave 就「将年回购预算从 5000 万美元下调至 3000 万美元」进行投票,当前支持率 99.37%

Aave DAO 正在对将年度回购预算从 5000 万美元下调至 3000 万美元的提案进行投票,当前支持率为 99.37%。提案因收入下降和预算赤字而提出,若通过将进入正式投票阶段。

GateNewsIl y a 28m

Vitalik 解读以太坊基金会新使命:将加倍投入并推动其成为"技术避风港"

Vitalik Buterin在X平台解读以太坊基金会的新使命宣言,强调以太坊作为“技术避风港”的独特角色,致力于维护技术自我主权,防止绝对控制,并推进CROPS原则,关注去中心化与用户体验,以推动以太坊生态发展。

GateNewsIl y a 29m

Aave 将推出 Aave Shield 功能,默认阻止价格影响超 25% 的 Swap

Aave 发布了 Swap 事件复盘,称一用户在流动性低的市场执行超大订单,导致价格影响约99.9%。Aave 将推出 Aave Shield 功能,默认阻止价格影响超过25%的交易。

GateNewsIl y a 1h

微软内部测试 OpenClaw,下周将推出路线图

Gate News 消息,3 月 15 日,OpenClaw for Microsoft Teams 将迎来重大改进,下周将推出一份路线图。目前,OpenClaw 团队已与十几位微软员工进行交流,并组建了一个六人团队,微软正在内部测试 OpenClaw。预计 Microsoft Teams 以及其他扩展程序和插件将得到更好的改进。

GateNewsIl y a 1h

Circle Introduces AI Skills for USDC, EURC Blockchain Tools

Circle Skills lets AI agents perform payments, wallet tasks, and smart contract actions using USDC and EURC. Tool integrates with AI platforms like Cursor, Claude Code, and Codex to build stablecoin apps faster. Circle tested AI agents with a $30K USDC hackathon that produced 204

CryptoFrontNewsIl y a 5h

XRP Ledger Validators Weigh Two Amendments as Votes Lag

The XRP Ledger is reviewing two proposed amendments that could expand lending functions and strengthen vault infrastructure. Validators have begun voting, yet early participation remains limited. Current results suggest the proposals still face significant hurdles before reaching activation

CryptoBreakingIl y a 8h
Commentaire
0/400
Aucun commentaire