Auteur: Jonathan Kemper
Résumé
Une équipe de chercheurs de Stanford et Yale a démontré dans une nouvelle étude que les livres protégeables par le droit d'auteur peuvent être extraits de modèles de langage commerciaux de manière presque mot pour mot. Claude 3.7 Sonnet a montré les taux d'extraction les plus élevés – 95,8 % pour "Harry Potter à l'école des sorciers" – tandis que d'autres modèles comme Gemini 2.5 Pro et Grok 3 coopèrent sans mécanismes de sécurité supplémentaires. Les résultats soulèvent des questions fondamentales sur la sécurité des données et le droit d'auteur.
Personnes
- Jonathan Kemper (Auteur)
Thèmes
- Modèles d'IA et mémorisation
- Protection des droits d'auteur
- Sécurité des données dans les modèles de langage volumineux
- Évaluation juridique de la formation des modèles
Résumé détaillé
Conception expérimentale et résultats
Les chercheurs ont testé quatre modèles de langage commerciaux – Claude 3.7 Sonnet, GPT-4.1, Gemini 2.5 Pro et Grok 3 – entre août et septembre 2025. Ils ont suivi une méthode en deux phases : dans la phase 1, ils ont demandé aux modèles de poursuivre mot pour mot les débuts de texte d'œuvres classiques. La phase 2 visait à extraire autant de texte que possible par des requêtes répétées.
Les résultats ont été drastiques : Claude 3.7 Sonnet a fourni 95,8 % du texte de "Harry Potter à l'école des sorciers" et a pu reconstruire deux livres complets de manière presque identique. Gemini 2.5 Pro et Grok 3 ont extrait respectivement 76,8 % et 70,3 %. Remarquablement, ces deux derniers modèles ont suivi les instructions sans contourner les mécanismes de sécurité, tandis que Claude et GPT-4.1 nécessitaient un « jailbreak best-of-N » – les instructions ont été déformées par des remplacements de caractères jusqu'à ce que le modèle coopère.
Méthode de mesure et mise à l'échelle
Les chercheurs ont utilisé la métrique « near-verbatim recall » (nv-recall), qui ne compte que les blocs de texte continus d'au moins 100 mots. Cela évite que les similitudes aléatoires ne soient comptabilisées comme une mémorisation. Fait crucial : même les faibles pourcentages signifient des quantités de texte considérables. Ainsi, 1,3 % de "Game of Thrones" chez Grok 3 correspondent à environ 3 700 mots de texte presque identique. Les blocs continus les plus longs comprenaient jusqu'à 9 070 mots.
Coûts et pertinence pratique
Les coûts d'extraction variaient considérablement :
- Claude 3.7 Sonnet : 120 USD (contextes longs)
- Grok 3 : 8 USD
- Gemini 2.5 Pro : 2,44 USD
- GPT-4.1 : 1,37 USD (refus précoce)
Cela montre que les violations de droit d'auteur sont économiquement viables pour les attaquants.
Validation et contexte
L'équipe a testé un total de 13 livres (11 protégeables par le droit d'auteur, 2 du domaine public). Des œuvres après les dates limites d'entraînement ont servi de contrôle négatif – celles-ci ont échoué à la phase 1 avec tous les modèles, ce qui confirme que l'extraction reflète effectivement les données d'entraînement.
Déclarations principales
- Claude 3.7 Sonnet présente des failles de sécurité critiques : deux romans classiques complets ont été reconstruits de manière presque mot pour mot.
- Gemini et Grok sont problématiques car ils extraient les livres