ChatGPT ist keine Suchmaschine – KI-Expertin warnt vor Überschätzung

Publikationsdatum: 20.11.2025

Artikelübersicht

Autorin: Katharina Zweig (Informatikprofessorin, TU Kaiserslautern)
Interview geführt von: Patrick Schlereth
Erschienen: FAZ, 20.11.2025, 09:01 Uhr
Geschätzte Lesezeit: 10 Minuten
Format: FAZ+ Interview (kostenpflichtig)

Hinweis: Der bereitgestellte Artikeltext ist unvollständig – nur Einleitung und erste Frage sind verfügbar

Zusammenfassung – Die wichtigsten Punkte

  • Kernthese: KI-Sprachmodelle wie ChatGPT sollten nicht als Suchmaschinen verwendet werden
  • Hauptproblem: KI kann nicht unterscheiden, was sie wirklich "weiss" und was nicht
  • Warnung: Zweig sieht eine grosse KI-Blase am Entstehen
  • Grenzen: Aktuelle Sprachmodelle haben fundamentale Beschränkungen
  • Umgang: Nutzer gehen zu sorglos mit KI-Tools um
  • Selbstreflexion: Im Gegensatz zu Sokrates' "Ich weiss, dass ich nichts weiss" fehlt der KI diese Erkenntnis
  • Imitation: KI imitiert menschliche Antworten, ohne echtes Verständnis zu besitzen

[⚠️ Vollständige Analyse aufgrund unvollständigem Artikeltext noch zu prüfen]

Chancen & Risiken

Chancen:

  • Bewusstseinsbildung für verantwortlichen KI-Einsatz
  • Kritische Diskussion über KI-Grenzen kann zu besserer Regulierung führen
  • Forschung in Richtung "ehrlicherer" KI-Systeme

Risiken:

  • Überschätzung der aktuellen KI-Fähigkeiten durch Nutzer
  • Entstehende Investitionsblase im KI-Bereich
  • Fehlentscheidungen durch Vertrauen in unzuverlässige KI-Antworten

Blick in die Zukunft

Kurzfristig (1 Jahr): Wachsende Kritik an aktuellen Sprachmodellen, erste Regulierungsansätze

Mittelfristig (5 Jahre): Mögliche Korrektur der KI-Euphorie, Entwicklung "selbstreflexiverer" KI-Systeme

Langfristig (10-20 Jahre): Zweig hat laut Einleitung "eine Idee, was als Nächstes kommt" – Details im vollständigen Interview

Faktencheck

Gut belegt:

  • Zweigs Expertise als Informatikprofessorin an der TU Kaiserslautern
  • Grundsätzliche Problematik von Sprachmodellen bei der Wissensunterscheidung

Zu prüfen:

  • [⚠️ Noch zu prüfen] Konkrete Beispiele für KI-Blasen-Bildung
  • [⚠️ Noch zu prüfen] Zweigs spezifische Zukunftsprognosen
  • [⚠️ Noch zu prüfen] Detaillierte Argumente zu Sprachmodell-Grenzen

Kurzfazit

Die Informatikerin Katharina Zweig warnt vor einer gefährlichen Überschätzung aktueller KI-Technologie und dem sorglosen Umgang mit Sprachmodellen wie ChatGPT. Ihre Hauptkritik: Diese Tools können nicht zwischen gesichertem Wissen und Spekulationen unterscheiden und sollten daher nicht als verlässliche Informationsquellen verwendet werden. Die Warnung vor einer KI-Blase kommt zu einem Zeitpunkt, da die Euphorie um generative KI ihren Höhepunkt zu erreichen scheint.

Drei kritische Fragen

  1. Transparenz-Problem: Wenn selbst KI-Expertinnen vor dem sorglosen Umgang warnen – warum kommunizieren Tech-Unternehmen die Grenzen ihrer Systeme nicht deutlicher?

  2. Verantwortung bei Fehlinformationen: Wer trägt die Verantwortung, wenn Menschen aufgrund unzuverlässiger KI-Antworten falsche Entscheidungen treffen – besonders in kritischen Bereichen wie Gesundheit oder Finanzen?

  3. Innovation vs. Hype: Behindert die aktuelle KI-Blase echte technologische Innovation, indem Ressourcen in überschätzte Technologien fliessen statt in grundlegende Forschung?