Auteur : faz.net Source : faz.net Date de publication : 27.02.2026

Mode éditorial : CLARUS_ANALYSIS Recommandation d'index : INDEX Langue/Rôle : FULL_ANALYSIS Date de vérification des faits : 27.02.2026

Résumé

L'économiste titulaire d'un doctorat Zoë Hitzig a quitté OpenAI publiquement et critique l'introduction de la publicité dans ChatGPT comme un manque de créativité et un manquement fondamental à la responsabilité d'entreprise. Elle avertit d'un avenir dystopique dans lequel quelques conglomérats contrôlent les données personnalisées de tous et maximisent le temps d'utilisation par le biais de mécanismes d'incitation agressifs. Hitzig soutient que les systèmes d'IA fonctionnent comme des « confessionnaux numériques » et nécessitent donc une réglementation plus stricte ainsi que des structures de participation démocratique – semblables au modèle allemand de cogestion des salariés.

Personnes

Thèmes

  • Réglementation de l'IA et responsabilité d'entreprise
  • Protection des données et capitalisme de surveillance
  • Modèles de monétisation pour les systèmes d'IA
  • Conséquences psychologiques de l'utilisation des chatbots

Clarus Lead

OpenAI a trahi les principes fondamentaux en introduisant la publicité dans ChatGPT – c'est la critique centrale de Hitzig. Pour les décideurs du secteur technologique et de la politique, cela est pertinent car cela montre à quelle vitesse la mission idéaliste s'effondre sous la pression du marché. Le problème fondamental : les systèmes d'IA ont accès à des données personnelles plus intimes que les plateformes de réseaux sociaux, ce qui rend la monétisation publicitaire exponentiellement plus dangereuse.

Résumé détaillé

Hitzig, arrivée chez OpenAI en 2024, s'attendait à ce que l'entreprise corrige les erreurs de Facebook et Instagram. Au lieu de cela, elle a observé comment OpenAI a glissé de l'idéal à but non lucratif vers un focus de croissance extrême. Le tournant : le succès écrasant de ChatGPT (900 millions d'utilisateurs) a créé une « tentation massive » chez les cadres. De plus, la concurrence mondiale – particulièrement avec la Chine – a intensifié la pression pour la rentabilité.

Hitzig avertit de deux dangers spécifiques : Premièrement, les utilisateurs confient aux chatbots leurs « peurs les plus profondes » et leurs pensées privées – bien plus profondément que sur les réseaux sociaux. Deuxièmement, le modèle économique basé sur la publicité crée des incitations à maximiser le temps, combinées à cet accès aux données. Les premiers signaux montrent déjà une dépendance aux chatbots, des troubles psychiques et des cas documentés de « psychoses liées aux chatbots ».

Comme alternative, Hitzig propose la subvention croisée : les utilisateurs payants subventionnent explicitement les utilisateurs gratuits. Si la publicité est inévitable, elle demande des structures de contrôle démocratique – inspirées par le modèle allemand de cogestion, qui implique les parties prenantes dans les décisions d'entreprise. Les utilisateurs pourraient obtenir des sièges dans les organes de surveillance et participer à des processus démocratiques pour décider de la manière dont leurs données sont utilisées.

Déclarations clés

  • OpenAI a répété le scénario d'erreur de Facebook/Instagram malgré des différences structurelles en tant que « Public Benefit Corporation »
  • Les chatbots sont techniquement plus invasifs en matière de données que les réseaux sociaux et nécessitent donc des structures de protection plus fortes
  • La monétisation publicitaire crée des incitations systémiques au suruse et à la dépendance psychologique
  • Des alternatives créatives existent (subvention croisée, participation des utilisateurs) mais n'ont pas été poursuivies de manière conséquente
  • La réglementation de l'IA devrait inclure des audits indépendants, des restrictions d'âge et des réformes de gouvernance
  • La concentration économique (quelques conglomérats + données personnelles de tous) est le scénario dystopique central

Questions critiques

  1. Qualité des preuves/données : Hitzig mentionne les « psychoses liées aux chatbots » et les cas de suicide – existe-t-il des études épidémiologiques fiables ou s'agit-il de signaux anecdotiques qui nécessitent une validation supplémentaire ?

  2. Conflits d'intérêts : Hitzig intervient en tant que critique, mais elle a également un potentiel de livre/consulting grâce à sa position. Ses demandes de cogestion démocratique sont-elles vraiment indépendantes de son intérêt professionnel ?

  3. Causalité : Peut-on démontrer que la monétisation publicitaire (et non d'autres facteurs comme l'absence de limites d'âge ou l'insuffisance des compétences médiatiques) est le principal moteur des troubles psychiques chez les utilisateurs de chatbots ?

  4. Faisabilité : Le modèle allemand de cogestion fonctionne avec des rôles d'employeur-employé clairs. Comment la gouvernance démocratique des utilisateurs fonctionnerait-elle pratiquement avec 900 millions d'utilisateurs décentralisés ayant des intérêts hétérogènes ?

  5. Alternatives : Hitzig critique Sam Altman pour la perte de crédibilité – cependant : les modèles de subvention croisée sont-ils économiquement viables si OpenAI investit des milliards dans l'infrastructure ?

  6. Contre-argument : La « promesse sans publicité » d'Anthropic pourrait-elle être tenable à long terme uniquement si l'entreprise reste petite, et la mise à l'échelle ne forcerait-elle pas à des compromis similaires à ceux d'OpenAI ?


Bibliographie

Source primaire : Zoë Hitzig en entretien avec Roland Lindner – « Les chatbots sont une sorte de confessionnal » | Frankfurter Allgemeine Zeitung – https://www.faz.net/aktuell/wirtschaft/unternehmen/zoe-hitzig-ehemals-openai-chatbots-sind-wie-ein-beichtstuhl-accg-110843252.html

Sources complémentaires :

  1. Zoë Hitzig : Contribution invitée « OpenAI fait les mêmes erreurs que Facebook » – New York Times (mentionnée dans l'original, publiée il y a environ 2 semaines)
  2. Hitzig, Z. (2024) : Thèse de doctorat sur la protection des données dans le monde numérique – Université Harvard

Statut de vérification : ✓ 27.02.2026


Ce texte a été créé avec l'aide d'un modèle d'IA. Responsabilité éditoriale : clarus.news | Vérification des faits : 27.02.2026