Auteur : coindesk.com Source : coindesk.com Date de publication : 14.11.2025

Auteur : Sam Reynolds, CoinDesk
Source : La recherche d'Anthropic montre que les agents d'IA se rapprochent de la véritable capacité d'attaque DeFi
Date de publication : 02.12.2025
Temps de lecture du résumé : 4 minutes


Résumé exécutif

Les agents d'IA sont désormais capables de mener des attaques rentables de manière autonome contre les plateformes de finance décentralisée (DeFi). Des recherches récentes montrent que les modèles avancés peuvent non seulement identifier les vulnérabilités, mais aussi créer des scripts d'exploitation de manière indépendante. Avec la baisse des coûts et l'augmentation des performances des systèmes d'IA, il est prévu que les attaques automatisées s'étendront à l'avenir à d'autres domaines logiciels et d'infrastructure. Les développeurs sont maintenant confrontés au défi de développer des stratégies de défense pour suivre le rythme du développement rapide.


Questions directrices critiques

  • Quelles mesures les plateformes DeFi peuvent-elles prendre pour se protéger de manière proactive contre les attaques basées sur l'IA ?
  • Comment peut-on s'assurer que l'utilisation d'agents d'IA pour les audits de sécurité ne tombe pas entre de mauvaises mains et ne soit pas utilisée de manière abusive ?
  • Quelles opportunités s'offrent aux entreprises qui investissent tôt dans des architectures de sécurité robustes et des systèmes de surveillance ?

Analyse de scénario : Perspectives d'avenir

Court terme (1 an) :
Attention accrue aux failles de sécurité dans les contrats intelligents. Augmentation des investissements dans les audits et les tests d'intrusion.

Moyen terme (5 ans) :
Développement d'IA de sécurité spécialisées comme contre-mesure. Émergence de nouveaux produits d'assurance contre les attaques d'IA.

Long terme (10-20 ans) :
Adaptation des paradigmes de programmation et des architectures de sécurité aux menaces basées sur l'IA. Tensions géopolitiques dues aux attaques d'IA sur les infrastructures critiques.


Résumé principal

a) Thème principal & Contexte

Des résultats de recherche actuels montrent que les agents d'IA sont désormais capables de mener des attaques rentables sur les plateformes DeFi de manière autonome. Cela soulève des questions concernant la sécurité des contrats intelligents et la viabilité future des mesures de sécurité actuelles.

b) Principaux faits & chiffres

  • Des modèles comme GPT-5 et Sonnet 4.5 ont généré 4,6 millions de dollars US d'exploits simulés
  • Ils ont découvert deux vulnérabilités zero-day d'une valeur de 3 694 USD en gain simulé
  • Le coût moyen par exécution était de 1,22 USD

c) Parties prenantes & personnes concernées

Les développeurs et utilisateurs de plateformes DeFi sont directement concernés. Les assureurs, les fournisseurs de services de sécurité et les autorités de régulation sont indirectement impliqués.

d) Opportunités & Risques

Il existe des opportunités pour les fournisseurs de sécurité proactifs et les solutions d'assurance innovantes. Les risques découlent des attaques potentielles sur les infrastructures critiques et des tensions géopolitiques.

e) Pertinence des actions

Les décideurs devraient prendre des mesures immédiates pour renforcer leurs systèmes contre les attaques basées sur l'IA. Cela inclut des audits renforcés, l'utilisation d'IA de sécurité et l'adaptation des architectures de sécurité.


Bibliographie

Source principale :
La recherche d'Anthropic montre que les agents d'IA se rapprochent de la véritable capacité d'attaque DeFi - https://www.coindesk.com/de/tech/2025/12/02/anthropic-research-shows-ai-agents-are-closing-in-on-real-defi-attack-capability

Statut de vérification : ⚠️ La vérification des faits est en attente