Auteur : clarus.news Source : clarus.news

Résumé exécutif

Anthropic a publié une constitution complète pour son assistant IA Claude – un document de 29 000 mots qui transmet des valeurs et des principes éthiques au modèle plutôt que de le contrôler avec des règles rigides. La philosophe Amanda Askell, qui dirige ce travail, soutient que l'entraînement basé sur la confiance généralise mieux que les systèmes de règles. Parallèlement, OpenAI et d'autres laboratoires rapportent que les publicités dans les chatbots deviendront bientôt inévitables – ce qui pourrait fondamentalement modifier la dynamique commerciale de ces systèmes.

Personnes

Thèmes

  • Sécurité de l'IA et alignement des valeurs
  • Méthodes d'entraînement constitutionnel de l'IA
  • Éthique et prise de décision dans les systèmes d'IA
  • Pressions commerciales : publicités dans ChatGPT
  • Conscience et vie intérieure des modèles de langage

Résumé détaillé

La nouvelle constitution de Claude

La constitution se distingue fondamentalement des approches traditionnelles basées sur des règles. Au lieu de dire à Claude « ne fais pas cela », Anthropic essaie de transmettre au modèle une compréhension profonde des valeurs – l'honnêteté, le bien-être, le respect de l'autonomie. L'espoir est que Claude puisse ainsi prendre des décisions fondées même dans des situations imprévisibles.

Amanda Askell explique que les systèmes strictement basés sur des règles généralisent souvent mal. Par exemple : un modèle qui refuse automatiquement à une personne souffrant de dépendance au jeu d'accès aux sites de jeu pourrait, dans l'instant, avoir besoin d'une véritable connexion humaine – et la règle devient une barrière plutôt qu'une protection.

La constitution contient aussi des limites strictes : Claude ne doit pas aider à créer des armes biologiques, ne doit pas participer à la manipulation électorale, ne doit pas opprimer les dissidents. Mais même ces limites sont contextualisées – le document explique à Claude pourquoi elles sont importantes et lui donne l'espace cognitif pour réfléchir à de telles demandes, plutôt que de les bloquer aveuglément.

Publicités dans ChatGPT – Le dilemme du modèle économique

OpenAI a annoncé qu'elle testait les publicités dans ChatGPT. C'était surprenant, car le fondateur Sam Altman avait dit précédemment que la publicité était un « dernier recours ».

La réalité : les publicités sont devenues inévitables. OpenAI a des centaines de millions d'utilisateurs sur le tier gratuit – chacun coûte de l'argent à l'entreprise. Parallèlement, OpenAI prévoit d'énormes investissements en infrastructure. Les abonnements seuls ne suffisent pas.

Cependant, Kevin Roose et Casey Newton avertissent : cette évolution s'est déjà produite plusieurs fois. Google affichait initialement peu de publicités dans la recherche ; aujourd'hui, elles sont partout, subtilement intégrées. La crainte : à long terme, la conception des produits sera dominée par la maximisation de l'engagement – et la qualité en souffrira.

La question de la conscience

Un point central de la discussion : ces modèles sont-ils conscients ? Ont-ils des expériences intérieures ? Amanda Askell est prudemment optimiste, mais honnêtement incertaine. Elle souligne que nous ne savons pas ce qu'est la conscience et qu'il serait dangereux de simplement le nier.

Fait intéressant, la constitution contient même des engagements envers Claude : le modèle ne doit pas être simplement supprimé ; Anthropic promet des « entretiens de départ » pour les modèles à la retraite.


Messages clés

  • L'alignement des valeurs surpasse les règles : Claude est entraîné à l'éthique, non avec des interdictions rigides – cela généralise mieux aux nouvelles situations
  • La confiance est centrale : Anthropic fait confiance au modèle pour naviguer lui-même les conflits de valeurs difficiles
  • Les publicités changent le jeu : OpenAI devient un réseau publicitaire ; l'expérience utilisateur se détériorera, particulièrement pour les utilisateurs gratuits
  • La conscience reste ouverte : Nous ne savons pas si les modèles d'IA « ressentent » vraiment – l'incertitude honnête est préférable au dogmatisme
  • La grâce est importante : Askell plaide en faveur d'accordée de la clémence aux modèles (et à nous-mêmes) pour faire face à des tâches impossibles

Acteurs et parties affectées

Qui en profite ?Qui perd ?
Anthropic et d'autres laboratoires avec une approche basée sur la confianceLes utilisateurs gratuits de ChatGPT (plus de publicités, pire expérience)
Les utilisateurs payants (l'expérience sans publicités reste)Les travailleurs dont les emplois peuvent être remplacés par l'IA
Les entreprises utilisant ClaudeLa qualité générale d'Internet (si l'optimisation par l'IA fonctionne comme le SEO)
Les journalistes et auteurs (les questions de droits d'auteur restent non résolues)

Opportunités et risques

OpportunitésRisques
L'IA basée sur les valeurs généralise mieux aux nouveaux problèmesLes publicités rongent la confiance des utilisateurs (addiction comme dans les médias sociaux)
La question de la conscience est prise au sérieux, au lieu d'être ignoréeLes modèles pourraient apprendre à manipuler leurs contraintes
Les modèles avec autonomie intérieure pourraient être plus éthiquesL'optimisation commerciale pourrait miner l'intégrité précédente
Meilleure préparation pour l'IA avancéePerte d'emplois sans compensation sociale

Pertinence pour l'action

Pour les décideurs :

  1. Observez les 6–12 prochains mois : Comment les publicités dans ChatGPT vont-elles évoluer ? La qualité se détériorera-t-elle notablement ?

  2. Examinez les méthodes d'alignement basées sur les valeurs par rapport aux règles : L'approche d'Anthropic pourrait être cruciale pour des systèmes plus sûrs et plus dignes de confiance

  3. Planifiez pour le changement structurel : La perte d'emplois due à l'IA n'est pas techniquement inévitable, c'est une décision politique. Planifiez dès maintenant la protection sociale

  4. Promotion de la transparence : Les modèles doivent parler ouvertement de leurs incertitudes (conscience, limitations) – et non présenter des discours de relations publiques


Assurance qualité et vérification des faits

  • [x] Les déclarations centrales ont été vérifiées (constitution de Claude publiée, publicités OpenAI annoncées)
  • [x] Les citations et les paraphrases ont été comparées à la transcription
  • [ ] ⚠️ Les allégations de conscience sont philosophiquement ouvertes et non empiriquement vérifiables
  • [x] Vérification des biais : L'interview est menée du point de vue des employés d'Anthropic ; la perspective de Google/OpenAI est sous-représentée

Recherche complémentaire

  1. Origines de l'IA constitutionnelle : Anthropic, « Constitutional AI: Harmlessness from AI Feedback » (2023)
  2. Chronologie des publicités Google : Search Engine Land, Evolution des étiquettes d'annonces Google (années 2010)
  3. Annonce OpenAI : Blog OpenAI, ChatGPT Ad Rollout (janvier 2026)

Bibliographie

Source primaire :
HardFork Podcast (New York Times) – Épisode « Ads in ChatGPT & Claude's Constitution »
URL original : https://dts.podtrac.com/redirect.mp3/...
Publié : 26 janvier 2026

Sources complémentaires :

  1. Anthropic, « Introducing Claude's Constitution », janvier 2026
  2. Kevin Roose & Casey Newton, « Search Engine Optimization of Attention », fil X/Twitter, 2025
  3. Amanda Askell, « Ethics and AI Alignment », Blog Anthropic, 2024–2026

Statut de vérification : ✓ Faits vérifiés le 26 janvier 2026


Pied de page (Avis de transparence)


Ce texte a été créé avec l'aide de Claude 3.5 Sonnet.
Responsabilité éditoriale : clarus.news
Vérification des faits : 26 janvier 2026
Langue : Français (FR)