Auteur: nzz.ch
Mode rédactionnel: CLARUS_ANALYSIS Recommandation d'index: INDEX Langue/Rôle: FULL_ANALYSIS Date de vérification des faits: 14.03.2026
Résumé exécutif
L'armée américaine utilise massivement l'intelligence artificielle dans la guerre en Iran pour accélérer les prises de décision. Le modèle Claude d'Anthropic a aidé à frapper 2000 cibles d'attaque en seulement quatre jours – un rythme sans précédent. Les experts avertissent que l'IA pourrait saper le jugement humain dans les décisions mortelles et que le droit international humanitaire subit une pression fondamentale. À l'international, les négociations sur des règles contraignantes pour les systèmes d'armes autonomes échouent face à la résistance des grandes puissances.
Personnes
- Michael Horowitz (expert militaire, Université de Pennsylvanie)
- Jessica Dorsey (juriste internationale, Université d'Utrecht)
- Reto Wollenmann (expert suisse du contrôle des armements)
Thèmes
- Systèmes d'armes autonomes et IA militaire
- Droit international humanitaire et conduite des guerres
- Négociations internationales sur le contrôle des armements
- Contrôle humain sur l'utilisation des armes
Lead Clarus
L'armée américaine utilise le modèle Claude d'Anthropic dans la guerre actuelle en Iran pour une acquisition rapide des cibles. En 24 heures, 1000 cibles ont été touchées, en quatre jours au total 2000 – une accélération historique par rapport aux conflits antérieurs. Ce rythme soulève des questions fondamentales : les commandants peuvent-ils encore faire des évaluations appropriées sur le plan juridique et éthique quand des systèmes d'IA décident en millisecondes de la vie et de la mort ?
Résumé détaillé
Les systèmes d'armes autonomes ne sont plus de la science-fiction, mais sont opérationnels depuis des décennies. Les missiles de guidage comme le Javelin américain trouvent leurs cibles de manière autonome sur la base de l'infrarouge ou du radar – sans IA. Les drones kamikazes, massivement déployés dans la guerre en Ukraine, planent au-dessus d'un territoire jusqu'à ce que leurs capteurs détectent une cible. Cette autonomie est établie et légale.
Mais l'IA aggrave le problème fondamentalement : elle condense la « chaîne de tir » – le chemin vers la décision de tuer – jusqu'à rendre la réflexion humaine pratiquement impossible. La juriste internationale Dorsey met en garde contre le « biais d'automatisation », la tendance des humains à accepter sans critique les propositions des machines. Dans le pire des cas, suit la « capitulation cognitive », quand l'humain se soumet intellectuellement à l'ordinateur. Le problème fondamental : le droit international humanitaire exige des jugements contextuels et qualitatifs – mais l'IA les remplace par des évaluations numériques.
Un cas concret illustre le danger : une attaque contre une école pour filles en Iran a tué plus de 170 personnes, principalement des enfants. L'école n'avait pas été utilisée comme installation militaire depuis des décennies. Que Claude ait suggéré celle-ci comme cible sur la base d'anciennes données satellites ou qu'il y ait eu une défaillance humaine reste flou – le Pentagone enquête.
Paralysie diplomatique
Au niveau international, les grandes puissances bloquent les règles contraignantes. La Suisse et 42 autres pays demandent à la Convention sur les armes classiques (CCW) depuis 2014 que les humains puissent retracer les recommandations de l'IA, plutôt que de les confirmer en appuyant sur un bouton. Mais les États-Unis, la Chine et la Russie refusent – seule la compatibilité juridique du résultat les intéresse, pas la voie de la décision. Au sommet REAIM en février 2026, les États-Unis et la Chine ont refusé même de signer des déclarations non contraignantes.
Points clés
- L'IA raccourcit radicalement les délais de décision : 2000 cibles en quatre jours au lieu de six mois dans la guerre contre l'État islamique
- Le droit international humanitaire exige des jugements contextuels et qualitatifs – l'IA les remplace par des algorithmes
- Le contrôle humain devient une fiction quand le rythme rend la réflexion impossible
- Le biais d'automatisation fait que les humains suivent sans réfléchir les recommandations des machines
- Les négociations internationales échouent face aux grandes puissances qui exigent l'autonomie sans contrôle
- Les erreurs concrètes comme l'attaque contre une école illustrent les risques de mise en œuvre
Questions critiques
Qualité des preuves/données : Quel âge avaient les données satellites sur lesquelles Claude a analysé l'école pour filles comme cible ? Quel taux d'erreur l'IA affiche-t-elle avec des données d'entrée obsolètes ?
Conflits d'intérêts : Anthropic gagne 200 millions de dollars avec le contrat du Pentagone – dans quelle mesure les préoccupations éthiques exprimées peuvent-elles être crédibles si le modèle économique dépend des contrats militaires ?
Causalité : Est-il prouvé que le nombre d'attaques accru (2000 en quatre jours) entraîne plus de victimes civiles qu'avec des opérations plus lentes et coordonnées manuellement ?
Applicabilité : Si le rapport du Pentagone montre qu'il est « peu clair » qui est responsable de l'attaque contre l'école – comment la responsabilité pourrait-elle fonctionner ?
Alternatives : Pourquoi les grandes puissances n'investissent-elles pas dans des systèmes qui rendent transparentes les recommandations de l'IA, plutôt que de les accélérer ?
Hypothèses alternatives : Les systèmes plus lents et soutenus par l'IA (sans pression d'automatisation) pourraient-ils mieux respecter le droit humanitaire que les procédures manuelles actuelles ?
Bibliographie
Source primaire : L'intelligence artificielle est l'accélérateur de la guerre en Iran – Neue Zürcher Zeitung, Leonid Leiva Ariosa, 14.03.2026
Statut de vérification : ✓ 14.03.2026
Ce texte a été créé avec le soutien d'un modèle IA. Responsabilité éditoriale : clarus.news | Vérification des faits : 14.03.2026