Auteur : nzz.ch Source : nzz.ch Date de publication : 15.02.2026

Mode éditorial : CLARUS_ANALYSIS Recommandation d'indexation : INDEX Langue/Rôle : FULL_ANALYSIS Date de vérification des faits : 15.02.2026

Résumé exécutif

L'armée américaine a utilisé pour la première fois le logiciel d'IA Claude d'Anthropic directement lors d'une opération de combat contre le président vénézuélien Nicolás Maduro – une violation de ses propres conditions d'utilisation. L'opération a entraîné des bombardements et des dizaines de décès, ce qui contrevient à l'interdiction explicite d'Anthropic d'utiliser l'IA pour la violence. Le Pentagone exerce une pression pour qu'Anthropic coopère également sur les systèmes d'armes autonomes, tandis que l'entreprise souhaite défendre ses principes moraux.

Personnes

Thèmes

  • Intelligence artificielle dans les opérations militaires
  • Éthique d'entreprise vs. contrats gouvernementaux
  • Régulation et contrôle de l'IA
  • Géopolitique et technologie

Clarus Lead

L'armée américaine a utilisé Claude, le modèle d'IA d'Anthropic, lors de l'opération contre le président vénézuélien Maduro – non seulement pour la préparation, mais pour la première fois aussi pendant les opérations de combat elles-mêmes. Les forces ont lancé des bombes et tué des dizaines de personnes. Cela viole directement les conditions d'utilisation d'Anthropic, qui interdisent explicitement l'utilisation pour la violence et la « perte de vies humaines ». Le Pentagone menace désormais de résilier le contrat avec Anthropic si l'entreprise ne permet pas également les systèmes d'armes autonomes et la surveillance de masse avec Claude – un dilemme central pour Anthropic entre principe moral et dépendance économique des fonds gouvernementaux.

Résumé détaillé

Anthropic a été fondée en 2021 pour développer l'IA de manière responsable. Le PDG Dario Amodei se positionne comme partisan d'une régulation plus stricte et met publiquement en garde contre les risques technologiques. Claude est considéré comme l'un des meilleurs systèmes d'IA et est préféré par les clients d'entreprises et les programmeurs. Le Pentagone a conclu un contrat de 200 millions de dollars avec Anthropic en 2024 et a même accès aux plus hauts niveaux de classification.

La découverte de l'opération vénézuélienne révèle un conflit fondamental : Anthropic est actuellement évalué à 380 milliards de dollars, mais ne réalise pas de bénéfices. L'entreprise prévoit son introduction en bourse et dépend de contrats gouvernementaux lucratifs pour justifier sa valorisation élevée. Parallèlement, les principes moraux – la protection contre l'utilisation abusive de l'IA – renforcent la confiance des clients d'entreprises et des talents en IA.

Le Pentagone, sous le secrétaire à la Défense Pete Hegseth, exige ultimement qu'Anthropic approuve « toutes les applications légales » ou perde le contrat. Hegseth a déjà souligné que le Pentagone n'utiliserait pas de modèles d'IA qui empêcheraient la conduite de la guerre. Parallèlement, le Pentagone a conclu des contrats avec xAI (Elon Musk) et utilise des versions sur mesure d'OpenAI et Google. Anthropic refuse jusqu'à présent de céder sur les systèmes d'armes autonomes et la surveillance de masse – mais la pression économique augmente.

Éléments clés

  • Déploiement inédit : Claude a été utilisé pour la première fois lors d'une opération militaire active (pas seulement pour la planification)
  • Violation de contrat : L'opération avec bombardements et décès viole explicitement les conditions d'utilisation d'Anthropic
  • Ultimatum du Pentagone : L'armée américaine menace de résilier le contrat si Anthropic n'autorise pas aussi les armes autonomes et la surveillance
  • Dilemme économique : Anthropic a besoin de millions de dollars gouvernementaux pour son introduction en bourse prévue, mais risque son éthique fondatrice
  • Exemple pour l'industrie : Le résultat pourrait influencer la façon dont d'autres entreprises d'IA traitent les exigences militaires

Questions critiques

  1. Validité des sources : Le Wall Street Journal cite des « sources non nommées » – qui exactement a partagé ces informations sensibles sur une opération strictement classifiée, et quels intérêts pourraient être en jeu ?

  2. Coopération d'Anthropic : Pourquoi Anthropic s'est-elle enquise auprès du Pentagone des détails de l'opération si l'entreprise voulait protéger ses conditions d'utilisation – était-ce une mesure de contrôle ou une acceptation de facto ?

  3. « Légalité » vs. éthique : Le Pentagone définit l'opération vénézuélienne comme « légale », alors qu'elle contredit les normes éthiques d'Anthropic – quel standard devrait prévaloir, et qui décide ?

  4. Scénarios alternatifs : Anthropic aurait-elle pu techniquement empêcher que Claude soit utilisé via Palantir Technologies sans connaissance directe, ou s'agit-il d'un déficit de contrôle dans l'ensemble de l'écosystème armement-IA ?

  5. Pression sur d'autres entreprises : Si Anthropic cède, OpenAI, Google et d'autres entreprises d'IA recevront-elles des ultimatums du Pentagone similaires – les directives gouvernementales actuelles en matière de sécurité de l'IA sont-elles suffisantes ou obsolètes ?

  6. Risque à long terme : Une entreprise d'IA peut-elle crédiblement promouvoir les « valeurs humaines » tout en acceptant des contrats gouvernementaux avec des applications militaires, sans endommager sa marque ?


Références bibliographiques

Source primaire : Claude a-t-il sa place à la guerre ? – Neue Zürcher Zeitung, 15.02.2026

Sources complémentaires (citées dans l'article) :

  1. Wall Street Journal – Opération vénézuélienne et participation d'Anthropic
  2. Axios – Déploiement de Claude pendant l'opération et réaction du Pentagone
  3. Reuters – Dario Amodei et Nicolás Maduro (Matériel photographique)

Statut de vérification : ✓ 15.02.2026


Ce texte a été créé avec l'aide d'un modèle d'IA. Responsabilité éditoriale : clarus.news | Vérification des faits : 15.02.2026