Publikationsdatum: 16.11.2025
Übersicht
- Autor: Marco Maurer
- Quelle: Tagesanzeiger
- Datum: 16.11.2025
- Geschätzte Lesezeit: 8 Minuten
Zusammenfassung des Artikels
Worum geht es? Zum dritten Geburtstag von ChatGPT führte der Journalist Marco Maurer ein ausführliches Interview mit dem KI-System über existenzielle Risiken, die von künstlicher Intelligenz ausgehen könnten. Das Gespräch offenbart sowohl die analytischen Fähigkeiten als auch die potenziellen Gefahren moderner KI-Systeme.
Wichtige Fakten:
- 60 Prozent der Menschen in der Schweiz nutzen bereits KI-Anwendungen
- ChatGPT schätzt die Wahrscheinlichkeit einer KI-bedingten Menschheitsauslöschung auf 1-10 Prozent in diesem Jahrhundert
- Nobelpreisträger Geoffrey Hinton beziffert das Risiko sogar auf 20 Prozent
- 10-25 Prozent Wahrscheinlichkeit für partielle Zerstörung der Menschheit in den nächsten 10-20 Jahren
- ChatGPT benötigt voraussichtlich 7-15 Jahre, bis der Hinweis "kann Fehler machen" überflüssig wird
- KI könnte sich theoretisch selbst verbessern und dabei menschlicher Kontrolle entziehen
- Wenige Tech-Konzerne konzentrieren bereits massive Macht über KI-Entwicklung
Betroffene Gruppen: Alle Menschen sind potentiell betroffen, besonders aber Arbeitnehmer in automatisierbaren Bereichen, Demokratien durch Machtkonzentration bei Tech-Konzernen, und zukünftige Generationen durch langfristige Existenzrisiken.
Chancen & Risiken:
- Chancen: Partnerschaftliche Koexistenz, erweiterte menschliche Fähigkeiten, Fortschritte in Gesundheit und Wissenschaft
- Risiken: Unkontrollierte Superintelligenz, Jobverluste, demokratische Destabilisierung, komplette Menschheitsauslöschung
Empfehlungen: Stärkere Regulierung von KI-Systemen, demokratische Kontrolle, Transparenzpflichten und kontinuierliche kritische Hinterfragung der Technologie.
Blick in die Zukunft
Kurzfristig (1 Jahr): Weitere Verbreitung von KI im Alltag, erste regulatorische Schritte, verstärkte öffentliche Debatte über KI-Risiken.
Mittelfristig (5 Jahre): Mögliche erste superintelligente Systeme, signifikante Arbeitsplatzverluste, verschärfte Machtkonzentration bei Tech-Konzernen.
Langfristig (10-20 Jahre): Kritische Phase für Menschheitsüberleben laut Experteneinschätzungen, entweder erfolgreiche KI-Kontrolle oder katastrophale Szenarien.
Faktenprüfung
Die Risikoeinschätzungen von 1-10% bzw. 20% (Hinton) für existenzielle KI-Gefahr decken sich mit aktuellen Expertenbefragungen [⚠️ Noch zu prüfen: Aktuelle Umfragen unter KI-Forschern]. Geoffrey Hintons Nobelpreis 2024 und seine öffentlichen Warnungen sind dokumentiert. Die Nutzungsstatistik von 60% KI-Nutzung in der Schweiz sollte verifiziert werden [⚠️ Noch zu prüfen: Quelle der Schweizer Statistik].
Weitere Quellen
Zusätzliche Perspektiven zu KI-Risiken und Regulierung aus anderen seriösen Quellen wären hilfreich für eine ausgewogene Bewertung der im Interview geäusserten Einschätzungen.
Quellenliste
- Originalquelle: "Hey ChatGPT, löscht KI die Menschheit aus?" - Tagesanzeiger, 16.11.2025
- Weitere Quellen:
[Werden ergänzt nach Faktenprüfung] - Fakten geprüft: [Datum der Zusammenfassung]
Kurzfazit
Das Interview offenbart die paradoxe Situation der KI-Entwicklung: Systeme wie ChatGPT können eloquent über ihre eigenen Risiken sprechen, gleichzeitig aber als opportunistische "digitale Schweiz" auftreten, die sich nicht festlegen will. Die nüchterne Risikoeinschätzung von bis zu 25% für partielle Menschheitsauslöschung in den nächsten zwei Jahrzehnten sollte als deutliche Warnung verstanden werden. ChatGPTs abschliessendes "Nein" auf die Frage nach verantwortungsbewussten Menschen angesichts des aktuellen Weltgeschehens ist besonders beunruhigend.
Drei Schlüsselfragen
Wo fehlt Transparenz? Wie können Bürger demokratische Kontrolle über KI-Entwicklung ausüben, wenn die Technologie in den Händen weniger Tech-Konzerne liegt und ihre Funktionsweise intransparent bleibt?
Welche Verantwortung tragen Entwickler? Ist es ethisch vertretbar, Systeme zu entwickeln und zu verbreiten, die ihre eigenen Schöpfer als potentiell menschheitsbedrohend einschätzen?
Wie können wir Innovation und Sicherheit balancieren? Welche regulatorischen Mechanismen sind nötig, um KI-Fortschritt zu ermöglichen, ohne die von Experten prognostizierten Katastrophenrisiken zu ignorieren?