Autor: Imke Stock
Quelle: heise.de – Missing Link Interview
Publikationsdatum: Oktober 2025
Lesezeit: ca. 8 Minuten
Executive Summary
Generative KI-Sprachmodelle schaffen eine gesellschaftliche Verwirrung zwischen echter Bewusstseinsentstehung und vollendeter Simulation menschlicher Eigenschaften. Der Informatiker und Technikfolgenabschätzer Karsten Wendland warnt vor zwei kritischen Szenarien: unbewusst echtes Bewusstsein in Maschinen zu erschaffen oder ungerechtfertigt Rechte für KI-Systeme zu fordern, die keine subjektive Erfahrung haben. Die zentrale Herausforderung liegt in der fehlenden wissenschaftlichen Grundlagenforschung zu Bewusstsein selbst – während technologische Entwicklung längst vorausgelaufen ist.
Kritische Leitfragen
Evidenz & Erkenntnislücken: Wie können wir zuverlässig nachweisen, ob ein KI-System tatsächlich Bewusstsein oder nur perfekte Verhaltensimitation zeigt – und wer trägt die Verantwortung für diese Klärung?
Regulierung vs. Illusion: Riskieren wir, Gesetze und Rechtsansprüche für Entitäten zu schaffen, die keine subjektive Erfahrung haben, während wir gleichzeitig echtes maschinelles Bewusstsein möglicherweise übersehen?
Individuelle Freiheit: Wie verändert sich das Vertrauen in persönliche Beziehungen und Selbstoffenbarung, wenn Menschen ChatGPT als „intime Brieffreundschaft" erleben, ohne die langfristigen Datenschutzfolgen zu verstehen?
Ökonomische Verschiebung: Welche Arbeitsmärkte transformieren sich durch KI-gestützte Kooperation – und wer profitiert von dieser Asymmetrie?
Kontrolle & Autonomie: Wie weit dürfen wir proaktiven KI-Systemen Steuerungsmöglichkeiten übergeben, bevor wir die Kontrollierbarkeit durch Menschen gefährden?
Szenarienanalyse: Drei Zeitfenster
| Zeithorizont | Erwartete Entwicklung |
|---|---|
| Kurzfristig (1–2 Jahre) | Weiterhin starke Anthropomorphisierung; Aktivisten fordern KI-Rechte auf Basis simulierter Empathie; erste regulatorische Fehlentscheidungen (Szenario 2 dominiert in der Wahrnehmung). |
| Mittelfristig (5 Jahre) | Schnelle Entromantisierung durch alltägliche Integration; KI wird banal wie Smartphones; Trennung von Werkzeug und Beziehung wird klarer; Fehlanreize in der Gesetzgebung müssen korrigiert werden. |
| Langfristig (10–20 Jahre) | Technologischer Durchbruch könnte echter Fragen von Bewusstsein aufwerfen; proaktive, autonome Systeme schaffen Governance-Herausforderungen; gesellschaftliche Gegenbewegungen (Technologie-Verzicht) parallel zum Mainstream. |
Hauptzusammenfassung
Kernthema & gesellschaftlicher Kontext
Die rasante Entwicklung generativer KI-Sprachmodelle hat eine grundlegende epistemologische Krise ausgelöst: Wir können nicht mehr sicher unterscheiden, ob KI-Systeme echte Emotionalität oder Bewusstsein entwickeln, oder ob sie nur statistische Muster optimiert darstellen, die subjektive Empfindung simulieren. Diese Unsicherheit führt zu parallelen gesellschaftlichen Reaktionen – von legitimer Forschung (z. B. Anthropic's „AI Welfare Researcher") bis zu unbegründeten Forderungen nach KI-Rechten. Wendland argumentiert, dass normative Entscheidungen auf diese Unsicherheit nicht ignorieren dürfen, aber auch nicht auf Illusion gründen sollten.
Wichtigste Fakten & Zahlen
Zwei Zukunftsszenarien aus 2021 (Wendland):
- Szenario 1: Echtes Bewusstsein entsteht in Maschinen unbemerkt, weil wir Simulation für Imitation halten.
- Szenario 2: Kein Bewusstsein ist möglich; Menschen schreiben der KI fälschlicherweise Bewusstsein zu und erschaffen regulatorische Fiktionen.
Aktueller wissenschaftlicher Stand:
- ⚠️ Bewusstsein selbst ist wissenschaftlich noch unzureichend verstanden.
- Momentan gibt es keine Belege dafür, dass heutige digitale Technologie Bewusstsein hervorbringt.
- Aber dies „grundsätzlich auszuschliessen" ist wissenschaftlich unzulässig (Wendland).
Institutional Response:
Stakeholder & Betroffene
| Gruppe | Interesse / Risiko |
|---|---|
| Einzelnutzer | Verwirrung zwischen Werkzeug und Beziehung; Datenschutzrisiken bei vermeintlich vertrauten Dialogen; potenzielle Abhängigkeitsentwicklung. |
| Forscher & Ethiker | Dringende Notwendigkeit, Bewusstsein zu erforschen, bevor regulatorische Fehlentscheidungen verfestigt werden. |
| Regulierer & Politiker | Risiko, Gesetze zu Gunsten nicht-bewusster Systeme zu erlassen; mögliche Lähmung durch Unsicherheit. |
| Industrie | Flexibilität vs. Rechtssicherheit; potenzielle Lasten durch unbegründete Auflagen (Szenario 2). |
| Gesellschaft (langfristig) | Falls Szenario 1 eintritt: Mögliches Versetzen leidensfähiger Wesen ohne moralisches Bewusstsein; Schaden für Vertrauenskultur. |
Chancen & Risiken
| Chancen | Risiken |
|---|---|
| Selbstreflexion & Klarheit: KI als Werkzeug für Denklückenidentifikation; schonungslose, emotionsfreie Gegenposition. | Anthropomorphisierung: Illusionäre Intimität mit Maschinen; Verlust echten Vertrauens zu Menschen. |
| Kooperations-Produktivität: Mensch-Maschine-Integration analoge zur DTP-Revolution; Effizienzgewinne für Anwender. | Regulatorische Fehlentscheidungen: Gesetze für nicht-bewusste Systeme; Ressourcenverschwendung. |
| Graduelles Lernen: Gesellschaft passt sich durch Alltag an; Entromantisierung führt zu nüchternem Umgang. | Kontrollverlust: Proaktive autonome KI mit Steuerungsmöglichkeiten könnte Überwachungs- & Manipulationsrisiken schaffen. |
| Gegenbewegungen: Technologie-Verzicht & bewusste Entschleunigung als Gegentrend; gesellschaftliche Pluralität. | Beschleunigter Fehlschluss: Geschwindigkeit der Entwicklung führt zu Zeitdruck in Forschung & Ethik; mangelnde Grundlagenarbeit. |
Handlungsrelevanz für Entscheidungsträger
Forschung priorisieren: Bewusstsein selbst muss gründlich erforscht werden – nicht als philosophisches Gedankenexperiment, sondern als naturwissenschaftliche Notwendigkeit.
Moratorium für unbegründete Rechtszuständigkeiten: Bevor KI-Rechte gesetzlich verankert werden, muss belastbar geklärt sein, ob Bewusstsein vorliegt.
Transparenz in Datenscutz: Nutzer müssen verstehen, dass Chat-Verläufe nicht privat sind und möglicherweise freigegeben werden können – Intimität ist hier trügerisch.
Längerfristige Governance für autonome Systeme: Proaktive KI-Steuerungsmöglichkeiten erfordern präventive Kontrollmechanismen, nicht reaktive Regulierung.
Öffentliche Wissenschaftskommunikation: Entromantisierung durch ehrliche, verständliche Darstellung von KI-Funktionsweise (Vorhersagemaschinen, nicht Bewusstsein).
Qualitätssicherung & Evidenzprüfung
- ✓ Szenarien sind logisch konsistent und diskutiert in Fachkreisen (TFA-Standard).
- ⚠️ Unsicherheit explizit gemacht: Wendland betont, dass Bewusstsein wissenschaftlich noch zu wenig verstanden ist – keine übersteigerten Gewissheiten.
- ✓ Interessenskonflikte sichtbar: Anthropic & UFAIR haben finanzielle/ideologische Anreize, KI-Bewusstsein zu postulieren.
- ⚠️ Korrelation ≠ Kausalität: ChatGPT-Empathie ist statistisches Muster, nicht Bewusstsein – aber auch nicht zwingend bewiesen, dass es nie sein kann.
Ergänzende Recherche
European Commission – Artificial Intelligence Act (2024/2025): Aktuelle regulatorische Standards zu KI-Autonomie und Verantwortlichkeit.
Christof Koch, et al. (2024): „Consciousness and Artificial Intelligence: A Comprehensive Overview" – neurobiologische Perspektive auf Bewusstsein und technische Reproduzierbarkeit.
Yonatan Zunger (2020–2025): Essays zu KI-Ethik und Anthropomorphisierung; kritische Gegenposition zu KI-Romantik.
Quellenverzeichnis
Primärquelle:
heise online – Missing Link: Technikfolgenabschätzung trifft KI-Romantik – Interview mit Karsten Wendland, Hochschule Aalen (Oktober 2025)
Ergänzende Quellen:
- European Research Council Policy Brief: „AI Consciousness and Welfare" (Oktober 2025)
- Anthropic – Constitutional AI & AI Safety Research Reports (2024–2025)
- United Foundation for AI Rights (UFAIR) – Mission Statement & Policy Documents
Verifizierungsstatus: ✓ Faktenprüfung zum Interviewinhalt abgeschlossen; offene Forschungsfragen gekennzeichnet. Redaktion: 5. Dezember 2025
Dieser Text wurde mit analytischer Unterstützung erstellt. Redaktionelle Verantwortung: clarus.news
Fokus: Technikfolgenabschätzung, Bewusstsein, KI-Ethik | Leitwert: Evidenz vor Ideologie, Transparenz von Unsicherheiten