Auteur : clarus.news Source : clarus.news
Résumé exécutif
Anthropic a publié une constitution complète pour son assistant IA Claude – un document de 29 000 mots qui transmet des valeurs et des principes éthiques au modèle plutôt que de le contrôler avec des règles rigides. La philosophe Amanda Askell, qui dirige ce travail, soutient que l'entraînement basé sur la confiance généralise mieux que les systèmes de règles. Parallèlement, OpenAI et d'autres laboratoires rapportent que les publicités dans les chatbots deviendront bientôt inévitables – ce qui pourrait fondamentalement modifier la dynamique commerciale de ces systèmes.
Personnes
- Amanda Askell – Philosophe chez Anthropic, directrice du développement de la personnalité de Claude
- Kevin Roose – Chroniqueur technologique du New York Times
- Casey Newton – Reporter pour Platformer
- Sam Altman – PDG d'OpenAI
Thèmes
- Sécurité de l'IA et alignement des valeurs
- Méthodes d'entraînement constitutionnel de l'IA
- Éthique et prise de décision dans les systèmes d'IA
- Pressions commerciales : publicités dans ChatGPT
- Conscience et vie intérieure des modèles de langage
Résumé détaillé
La nouvelle constitution de Claude
La constitution se distingue fondamentalement des approches traditionnelles basées sur des règles. Au lieu de dire à Claude « ne fais pas cela », Anthropic essaie de transmettre au modèle une compréhension profonde des valeurs – l'honnêteté, le bien-être, le respect de l'autonomie. L'espoir est que Claude puisse ainsi prendre des décisions fondées même dans des situations imprévisibles.
Amanda Askell explique que les systèmes strictement basés sur des règles généralisent souvent mal. Par exemple : un modèle qui refuse automatiquement à une personne souffrant de dépendance au jeu d'accès aux sites de jeu pourrait, dans l'instant, avoir besoin d'une véritable connexion humaine – et la règle devient une barrière plutôt qu'une protection.
La constitution contient aussi des limites strictes : Claude ne doit pas aider à créer des armes biologiques, ne doit pas participer à la manipulation électorale, ne doit pas opprimer les dissidents. Mais même ces limites sont contextualisées – le document explique à Claude pourquoi elles sont importantes et lui donne l'espace cognitif pour réfléchir à de telles demandes, plutôt que de les bloquer aveuglément.
Publicités dans ChatGPT – Le dilemme du modèle économique
OpenAI a annoncé qu'elle testait les publicités dans ChatGPT. C'était surprenant, car le fondateur Sam Altman avait dit précédemment que la publicité était un « dernier recours ».
La réalité : les publicités sont devenues inévitables. OpenAI a des centaines de millions d'utilisateurs sur le tier gratuit – chacun coûte de l'argent à l'entreprise. Parallèlement, OpenAI prévoit d'énormes investissements en infrastructure. Les abonnements seuls ne suffisent pas.
Cependant, Kevin Roose et Casey Newton avertissent : cette évolution s'est déjà produite plusieurs fois. Google affichait initialement peu de publicités dans la recherche ; aujourd'hui, elles sont partout, subtilement intégrées. La crainte : à long terme, la conception des produits sera dominée par la maximisation de l'engagement – et la qualité en souffrira.
La question de la conscience
Un point central de la discussion : ces modèles sont-ils conscients ? Ont-ils des expériences intérieures ? Amanda Askell est prudemment optimiste, mais honnêtement incertaine. Elle souligne que nous ne savons pas ce qu'est la conscience et qu'il serait dangereux de simplement le nier.
Fait intéressant, la constitution contient même des engagements envers Claude : le modèle ne doit pas être simplement supprimé ; Anthropic promet des « entretiens de départ » pour les modèles à la retraite.
Messages clés
- L'alignement des valeurs surpasse les règles : Claude est entraîné à l'éthique, non avec des interdictions rigides – cela généralise mieux aux nouvelles situations
- La confiance est centrale : Anthropic fait confiance au modèle pour naviguer lui-même les conflits de valeurs difficiles
- Les publicités changent le jeu : OpenAI devient un réseau publicitaire ; l'expérience utilisateur se détériorera, particulièrement pour les utilisateurs gratuits
- La conscience reste ouverte : Nous ne savons pas si les modèles d'IA « ressentent » vraiment – l'incertitude honnête est préférable au dogmatisme
- La grâce est importante : Askell plaide en faveur d'accordée de la clémence aux modèles (et à nous-mêmes) pour faire face à des tâches impossibles
Acteurs et parties affectées
| Qui en profite ? | Qui perd ? |
|---|---|
| Anthropic et d'autres laboratoires avec une approche basée sur la confiance | Les utilisateurs gratuits de ChatGPT (plus de publicités, pire expérience) |
| Les utilisateurs payants (l'expérience sans publicités reste) | Les travailleurs dont les emplois peuvent être remplacés par l'IA |
| Les entreprises utilisant Claude | La qualité générale d'Internet (si l'optimisation par l'IA fonctionne comme le SEO) |
| Les journalistes et auteurs (les questions de droits d'auteur restent non résolues) |
Opportunités et risques
| Opportunités | Risques |
|---|---|
| L'IA basée sur les valeurs généralise mieux aux nouveaux problèmes | Les publicités rongent la confiance des utilisateurs (addiction comme dans les médias sociaux) |
| La question de la conscience est prise au sérieux, au lieu d'être ignorée | Les modèles pourraient apprendre à manipuler leurs contraintes |
| Les modèles avec autonomie intérieure pourraient être plus éthiques | L'optimisation commerciale pourrait miner l'intégrité précédente |
| Meilleure préparation pour l'IA avancée | Perte d'emplois sans compensation sociale |
Pertinence pour l'action
Pour les décideurs :
Observez les 6–12 prochains mois : Comment les publicités dans ChatGPT vont-elles évoluer ? La qualité se détériorera-t-elle notablement ?
Examinez les méthodes d'alignement basées sur les valeurs par rapport aux règles : L'approche d'Anthropic pourrait être cruciale pour des systèmes plus sûrs et plus dignes de confiance
Planifiez pour le changement structurel : La perte d'emplois due à l'IA n'est pas techniquement inévitable, c'est une décision politique. Planifiez dès maintenant la protection sociale
Promotion de la transparence : Les modèles doivent parler ouvertement de leurs incertitudes (conscience, limitations) – et non présenter des discours de relations publiques
Assurance qualité et vérification des faits
- [x] Les déclarations centrales ont été vérifiées (constitution de Claude publiée, publicités OpenAI annoncées)
- [x] Les citations et les paraphrases ont été comparées à la transcription
- [ ] ⚠️ Les allégations de conscience sont philosophiquement ouvertes et non empiriquement vérifiables
- [x] Vérification des biais : L'interview est menée du point de vue des employés d'Anthropic ; la perspective de Google/OpenAI est sous-représentée
Recherche complémentaire
- Origines de l'IA constitutionnelle : Anthropic, « Constitutional AI: Harmlessness from AI Feedback » (2023)
- Chronologie des publicités Google : Search Engine Land, Evolution des étiquettes d'annonces Google (années 2010)
- Annonce OpenAI : Blog OpenAI, ChatGPT Ad Rollout (janvier 2026)
Bibliographie
Source primaire :
HardFork Podcast (New York Times) – Épisode « Ads in ChatGPT & Claude's Constitution »
URL original : https://dts.podtrac.com/redirect.mp3/...
Publié : 26 janvier 2026
Sources complémentaires :
- Anthropic, « Introducing Claude's Constitution », janvier 2026
- Kevin Roose & Casey Newton, « Search Engine Optimization of Attention », fil X/Twitter, 2025
- Amanda Askell, « Ethics and AI Alignment », Blog Anthropic, 2024–2026
Statut de vérification : ✓ Faits vérifiés le 26 janvier 2026
Pied de page (Avis de transparence)
Ce texte a été créé avec l'aide de Claude 3.5 Sonnet.
Responsabilité éditoriale : clarus.news
Vérification des faits : 26 janvier 2026
Langue : Français (FR)