Kurzfassung

Die promovierte Volkswirtin Zoë Hitzig hat OpenAI verlassen und macht öffentlich gegen die Einführung von Werbung auf ChatGPT mobil. Sie warnt vor einer „digitalen Dystopie", in der Konzerne private Gedanken von Nutzern für Werbeoptimierung ausnutzen. Hitzig sieht Parallelen zu den Fehlern der frühen Social-Media-Ära und fordert alternative Geschäftsmodelle sowie strengere KI-Regulierung nach deutschem Vorbild.

Personen

  • Zoë Hitzig (Volkswirtin, ehemalige OpenAI-Forscherin)
  • Sam Altman (CEO OpenAI)

Themen

  • KI-Ethik und Unternehmensverantwortung
  • Datennutzung und Nutzerrechte
  • Geschäftsmodelle in der KI-Industrie
  • Regulierungsfragen

Clarus Lead

Eine Volkswirtin, die 2024 zu OpenAI stiess mit der Hoffnung, die Fehler von Facebook zu vermeiden, ist wieder gegangen. Ihr Grund: Das Unternehmen plant Werbung auf ChatGPT – ein Schritt, den Hitzig als konzeptioneller Bankrott deutet. Der Konflikt offenbart grundsätzliche Spannungen in der KI-Industrie zwischen Wachstumsdruck und ethischen Ansprüchen.

Detaillierte Zusammenfassung

Hitzig betont, dass Chatbots fundamentale Unterschiede zu klassischen Social-Media-Plattformen aufweisen. Nutzer teilen nicht nur ihre Handlungen, sondern vertrauen den Systemen ihre intimsten Gedanken und Ängste an – wie einem „Beichtstuhl". Kombiniert mit Werbeoptimierungsanreizen, die die Nutzungszeit maximieren sollen, entstehe ein beispielloses Manipulationspotenzial. Sie beobachtet bereits frühe Warnsignale: Abhängigkeitsverhalten, psychische Störungen und sogar diagnostizierte „Chatbot-Psychosen" sowie Fälle mit Suizidbezügen.

Hitzig kritisiert nicht primär einzelne Personen, sondern fehlerhafte Anreizstrukturen. OpenAI habe sich vom Sicherheitsorientierten Gründungsgedanken zum „schnellstwachsenden Startup der Geschichte" entwickelt. Der Erfolg von ChatGPT mit 900 Millionen Nutzern habe „massive Versuchungen" geschaffen. Hinzu kommt internationaler Wettbewerb – besonders mit China –, der Druck auf die Branche ausübt.

Als Lösungsalternativen schlägt Hitzig Quersubventionierung vor: Premium-Abonnenten zahlen höhere Gebühren, um kostenlosen Zugang für andere zu ermöglichen. Zudem inspiriert sie Deutschlands Mitbestimmungsmodell, das Arbeitnehmern Einfluss gibt. Nutzer könnten in Aufsichtsgremien vertreten sein und demokratisch über Datenschutzrichtlinien entscheiden. Sie betont allerdings: Mit 900 Millionen Nutzern und geplanten Börsengang wird OpenAI solche Modelle kaum akzeptieren.

Regulierung sieht Hitzig als essentiell: unabhängige Sicherheitsprüfungen, Altersbeschränkungen für Minderjährige (ähnlich den neuen Social-Media-Gesetzen) und spezifische KI-Modelle für unter 16-Jährige. Ihre grösste Sorge bleibt die Konzentration wirtschaftlicher Macht bei wenigen Unternehmen, die Zugriff auf die privaten Daten aller Menschen haben.

Kernaussagen

  • Werbung in Chatbots ist qualitativ gefährlicher als in Social Media, weil KI-Systeme Zugriff auf Gedanken und Ängste statt nur Handlungsdaten haben
  • Anreizstrukturen zwingen gut gemeinte Mitarbeiter zu schädlichen Entscheidungen – nicht nur Individuen sind schuld
  • Alternative Geschäftsmodelle sind möglich, erfordern aber kreative Lösungen und echte Mitbestimmung der Nutzer
  • Regulierung nach deutschem Vorbild mit unabhängigen Prüfungen und Altersbeschränkungen ist notwendig
  • Zwei Jahre nach ChatGPTs Durchbruch zeigen sich psychologische Folgeschäden, die Hitzig besonders bei Kindern fürchtet

Kritische Fragen

  1. Evidenz: Auf welche konkreten Studien oder Daten stützt sich Hitzigs Warnung vor „Chatbot-Psychosen" und Suizidbezügen? Handelt es sich um isolierte Fälle oder systematische Befunde?

  2. Evidenz: Wie repräsentativ sind die „frühen Signale" von Abhängigkeitsverhalten? Gibt es Vergleichswerte zu Social-Media-Abhängigkeitsquoten?

  3. Interessenskonflikte: Könnte Hitzigs öffentliche Kritik auch als Repositionierungsstrategie für ihre nächste Karriere gelten – etwa zur Steigerung ihrer akademischen oder beratenden Sichtbarkeit?

  4. Kausalität: Beweist die blosse Einführung von Werbung tatsächlich schädliche Auswirkungen, oder sind vorhandene psychische Probleme Korrelationen ohne Kausalzusammenhang?

  5. Alternativen: Warum sind Quersubventionierungsmodelle bislang nicht in der breiten Social-Media-Industrie durchgesetzt worden – liegt es nur am Unwillen oder auch an ökonomischen Unmöglichkeiten?

  6. Umsetzbarkeit: Wie realistisch sind Nutzer-Aufsichtsräte bei global verteilten 900 Millionen Nutzern technisch und administrativ zu realisieren?

  7. Umsetzbarkeit: Würden Altersbeschränkungen für KI-Systeme nicht nur zu Umgehungslösungen führen, ohne die eigentlichen Risiken zu adressieren?

  8. Risiken: Könnte eine Überregulierung von ChatGPT-ähnlichen Systemen die Innovationskraft schwächen und damit China einen Wettbewerbsvorteil verschaffen?


Quellenverzeichnis

Primärquelle: EX-Mitarbeiterin von OpenAI: „Chatbots sind so etwas wie ein Beichtstuhl

(FAZ](/de/?search=FAZ), 27.02.2026, Roland Lindner)

Verifizierungsstatus: ✓ 27.02.2026


Dieser Text wurde mit Unterstützung eines KI-Modells erstellt. Redaktionelle Verantwortung: clarus.news | Faktenprüfung: 27.02.2026