Auteur: nzz.ch

Mode éditorial: CLARUS_ANALYSIS Recommandation d'indexation: INDEX Langue/Rôle: FULL_ANALYSIS Date de vérification des faits: 03.04.2026

Résumé

L'entreprise d'IA Anthropic a publié accidentellement fin mars 2026 le code source de son agent IA Claude Code. La cause était une chaîne de deux erreurs de manipulation : un fichier interne contenant une référence au serveur de code source non protégé a été publié avec une mise à jour publique. Le code s'est propagé de manière virale sur Internet malgré les poursuites en matière de droits d'auteur, plus de 100 000 développeurs ayant déjà créé leurs propres versions. Claude Code est le produit clé d'Anthropic pour la programmation automatisée et devrait générer environ 2,5 milliards de dollars de chiffre d'affaires en 2026.

Personnes

Thèmes

  • Sécurité et confidentialité de l'IA
  • Culture de sécurité des entreprises
  • Fuites de code source et droits d'auteur
  • Tensions géopolitiques (États-Unis-Chine, Pentagone-Anthropic)

Clarus Lead

La fuite frappe Anthropic au pire moment : l'entreprise se positionne comme pionnière de la sécurité IA responsable et l'utilise comme argument contre des concurrents comme OpenAI. Simultanément, le conflit s'aggrave avec l'administration Trump sur les armes autonomes – une décision gouvernementale a déclaré Anthropic comme risque de chaîne d'approvisionnement. La série de failles de sécurité (également 3 000 documents non protégés lors d'une enquête Fortune) sape la crédibilité de ce message de sécurité et pourrait à long terme mettre en danger les partenariats commerciaux, bien que la dépendance des utilisateurs à Claude Code reste initialement stable.


Résumé détaillé

L'erreur découlait de processus de publication manquants : lors d'une mise à jour la nuit du 31 mars, le package de fichiers public contenait un fichier de configuration qui aurait normalement dû rester interne. Celui-ci pointait vers une deuxième erreur critique – un stockage de serveur sans mot de passe contenant le code source complet de Claude Code. Le matériel divulgué a révélé le soi-disant « Harness » de Claude Code : le logiciel d'orchestration qui contrôle les modèles d'IA, gère les fichiers et distribue les sous-tâches.

Florian Tramèr de l'ETH Zurich diagnostique une « culture de sécurité défaillante » typique des startups à croissance rapide de la Silicon Valley. La fuite a également révélé de nouvelles fonctionnalités complètes : des agents IA plus autonomes avec des routines de fond automatiques et des permissions d'accès étendues aux données des utilisateurs. Cela ressemble aux technologies de Peter Steinberger (ancien Anthropic, maintenant OpenAI) et augmente les risques de fuite de données. Claude Code collecte déjà des quantités considérables de données : les abonnements privés stockent pendant 30 jours, avec consentement à la formation jusqu'à cinq ans.

La propagation virale s'est opérée par une ruse juridique : un développeur a fait réécrire la version divulguée par Codex d'OpenAI dans un autre langage de programmation – contournant ainsi les droits d'auteur américains et atteignant 50 000 validations en deux heures sur GitHub. Plus de 100 000 utilisateurs ont créé des branches. Anthropic ne peut pas empêcher la propagation.


Points clés

  • Le PDG d'Anthropic Dario Amodei a perdu la coopération du Pentagone en rejetant les armes autonomes ; les nouvelles fuites sapent la caractéristique de différenciation en matière de sécurité de l'entreprise
  • La fuite de données a résulté de processus de publication défectueux, non d'attaques de pirates – néanmoins dommages à la réputation
  • Claude Code est stratégiquement critique (prévision de chiffre d'affaires de 2,5 milliards de dollars), mais la dépendance des utilisateurs pourrait offrir une protection à court terme des revenus
  • Les agents IA plus autonomes avec des permissions étendues augmentent structurellement le risque de perte de données

Questions critiques

  1. Qualité des données : Comment Anthropic a-t-il vérifié que seul le « Harness » a été divulgué et non les données d'entraînement ou les paramètres du modèle ? Les audits de sécurité indépendants du contenu divulgué seront-ils publiés ?

  2. Conflits d'intérêts : Qui dans la direction d'Anthropic est responsable de l'absence de politique de protection par mot de passe ? Y a-t-il des différences entre les normes de sécurité communiquées publiquement et celles réellement appliquées ?

  3. Causalité : L'échec de la version était-il isolé ou symptôme d'une culture DevOps fondamentalement surchargée chez Anthropic ? Quels autres packages de fichiers pourraient contenir des erreurs similaires ?

  4. Faisabilité et risques : Les concurrents ou les acteurs malveillants peuvent-ils exploiter les faiblesses du modèle à partir du seul code « Harness », ou ont-ils besoin d'un accès supplémentaire aux données d'entraînement ? Avec quelle rapidité les fonctionnalités plus autonomes (avec permissions étendues) peuvent-elles mener à un accès aux données incontrôlé ?

  5. Conséquences réglementaires : Les pannes de sécurité répétées mèneront-elles à des enquêtes des autorités (FTC, CISA) ? La décision du Pentagone de classer Anthropic comme risque de chaîne d'approvisionnement pourrait-elle être exacerbée par des blocages de tiers ?

  6. Protection des utilisateurs : Quelle transparence Anthropic fournit-elle sur la durée réelle de suppression des données et si les processus de fond automatisés des IA affectent la confidentialité ?


Répertoire des sources

Source primaire : Anthropic publie accidentellement le code source de Claude CodeNZZ, 03.04.2026 (Leonid Leiva Ariosa)

Sources complémentaires (mentionnées) :

  1. The Register (rapport sur la collecte de données Claude Code)
  2. Fortune (3 000 documents Anthropic non protégés)
  3. GitHub (métriques de propagation des versions divulguées)

Statut de vérification : ✓ 03.04.2026


Ce texte a été créé avec le soutien d'un modèle d'IA.
Responsabilité éditoriale : clarus.news | Vérification des faits : 03.04.2026