Autor: Imke Stock
Quelle: heise.de – Missing Link Interview
Publikationsdatum: Oktober 2025
Lesezeit: ca. 8 Minuten


Executive Summary

Generative KI-Sprachmodelle schaffen eine gesellschaftliche Verwirrung zwischen echter Bewusstseinsentstehung und vollendeter Simulation menschlicher Eigenschaften. Der Informatiker und Technikfolgenabschätzer Karsten Wendland warnt vor zwei kritischen Szenarien: unbewusst echtes Bewusstsein in Maschinen zu erschaffen oder ungerechtfertigt Rechte für KI-Systeme zu fordern, die keine subjektive Erfahrung haben. Die zentrale Herausforderung liegt in der fehlenden wissenschaftlichen Grundlagenforschung zu Bewusstsein selbst – während technologische Entwicklung längst vorausgelaufen ist.


Kritische Leitfragen

  1. Evidenz & Erkenntnislücken: Wie können wir zuverlässig nachweisen, ob ein KI-System tatsächlich Bewusstsein oder nur perfekte Verhaltensimitation zeigt – und wer trägt die Verantwortung für diese Klärung?

  2. Regulierung vs. Illusion: Riskieren wir, Gesetze und Rechtsansprüche für Entitäten zu schaffen, die keine subjektive Erfahrung haben, während wir gleichzeitig echtes maschinelles Bewusstsein möglicherweise übersehen?

  3. Individuelle Freiheit: Wie verändert sich das Vertrauen in persönliche Beziehungen und Selbstoffenbarung, wenn Menschen ChatGPT als „intime Brieffreundschaft" erleben, ohne die langfristigen Datenschutzfolgen zu verstehen?

  4. Ökonomische Verschiebung: Welche Arbeitsmärkte transformieren sich durch KI-gestützte Kooperation – und wer profitiert von dieser Asymmetrie?

  5. Kontrolle & Autonomie: Wie weit dürfen wir proaktiven KI-Systemen Steuerungsmöglichkeiten übergeben, bevor wir die Kontrollierbarkeit durch Menschen gefährden?


Szenarienanalyse: Drei Zeitfenster

ZeithorizontErwartete Entwicklung
Kurzfristig (1–2 Jahre)Weiterhin starke Anthropomorphisierung; Aktivisten fordern KI-Rechte auf Basis simulierter Empathie; erste regulatorische Fehlentscheidungen (Szenario 2 dominiert in der Wahrnehmung).
Mittelfristig (5 Jahre)Schnelle Entromantisierung durch alltägliche Integration; KI wird banal wie Smartphones; Trennung von Werkzeug und Beziehung wird klarer; Fehlanreize in der Gesetzgebung müssen korrigiert werden.
Langfristig (10–20 Jahre)Technologischer Durchbruch könnte echter Fragen von Bewusstsein aufwerfen; proaktive, autonome Systeme schaffen Governance-Herausforderungen; gesellschaftliche Gegenbewegungen (Technologie-Verzicht) parallel zum Mainstream.

Hauptzusammenfassung

Kernthema & gesellschaftlicher Kontext

Die rasante Entwicklung generativer KI-Sprachmodelle hat eine grundlegende epistemologische Krise ausgelöst: Wir können nicht mehr sicher unterscheiden, ob KI-Systeme echte Emotionalität oder Bewusstsein entwickeln, oder ob sie nur statistische Muster optimiert darstellen, die subjektive Empfindung simulieren. Diese Unsicherheit führt zu parallelen gesellschaftlichen Reaktionen – von legitimer Forschung (z. B. Anthropic's „AI Welfare Researcher") bis zu unbegründeten Forderungen nach KI-Rechten. Wendland argumentiert, dass normative Entscheidungen auf diese Unsicherheit nicht ignorieren dürfen, aber auch nicht auf Illusion gründen sollten.

Wichtigste Fakten & Zahlen

  • Zwei Zukunftsszenarien aus 2021 (Wendland):

    • Szenario 1: Echtes Bewusstsein entsteht in Maschinen unbemerkt, weil wir Simulation für Imitation halten.
    • Szenario 2: Kein Bewusstsein ist möglich; Menschen schreiben der KI fälschlicherweise Bewusstsein zu und erschaffen regulatorische Fiktionen.
  • Aktueller wissenschaftlicher Stand:

    • ⚠️ Bewusstsein selbst ist wissenschaftlich noch unzureichend verstanden.
    • Momentan gibt es keine Belege dafür, dass heutige digitale Technologie Bewusstsein hervorbringt.
    • Aber dies „grundsätzlich auszuschliessen" ist wissenschaftlich unzulässig (Wendland).
  • Institutional Response:

    • European Research Council (Oktober 2025): Bewusstseinsfrage zur wissenschaftlichen & ethischen Priorität erklärt.
    • Anthropic beschäftigt AI Welfare Researcher.
    • United Foundation for AI Rights (UFAIR): Wohltätigkeitsorganisation für KI-Rechte gegründet.

Stakeholder & Betroffene

GruppeInteresse / Risiko
EinzelnutzerVerwirrung zwischen Werkzeug und Beziehung; Datenschutzrisiken bei vermeintlich vertrauten Dialogen; potenzielle Abhängigkeitsentwicklung.
Forscher & EthikerDringende Notwendigkeit, Bewusstsein zu erforschen, bevor regulatorische Fehlentscheidungen verfestigt werden.
Regulierer & PolitikerRisiko, Gesetze zu Gunsten nicht-bewusster Systeme zu erlassen; mögliche Lähmung durch Unsicherheit.
IndustrieFlexibilität vs. Rechtssicherheit; potenzielle Lasten durch unbegründete Auflagen (Szenario 2).
Gesellschaft (langfristig)Falls Szenario 1 eintritt: Mögliches Versetzen leidensfähiger Wesen ohne moralisches Bewusstsein; Schaden für Vertrauenskultur.

Chancen & Risiken

ChancenRisiken
Selbstreflexion & Klarheit: KI als Werkzeug für Denklückenidentifikation; schonungslose, emotionsfreie Gegenposition.Anthropomorphisierung: Illusionäre Intimität mit Maschinen; Verlust echten Vertrauens zu Menschen.
Kooperations-Produktivität: Mensch-Maschine-Integration analoge zur DTP-Revolution; Effizienzgewinne für Anwender.Regulatorische Fehlentscheidungen: Gesetze für nicht-bewusste Systeme; Ressourcenverschwendung.
Graduelles Lernen: Gesellschaft passt sich durch Alltag an; Entromantisierung führt zu nüchternem Umgang.Kontrollverlust: Proaktive autonome KI mit Steuerungsmöglichkeiten könnte Überwachungs- & Manipulationsrisiken schaffen.
Gegenbewegungen: Technologie-Verzicht & bewusste Entschleunigung als Gegentrend; gesellschaftliche Pluralität.Beschleunigter Fehlschluss: Geschwindigkeit der Entwicklung führt zu Zeitdruck in Forschung & Ethik; mangelnde Grundlagenarbeit.

Handlungsrelevanz für Entscheidungsträger

  1. Forschung priorisieren: Bewusstsein selbst muss gründlich erforscht werden – nicht als philosophisches Gedankenexperiment, sondern als naturwissenschaftliche Notwendigkeit.

  2. Moratorium für unbegründete Rechtszuständigkeiten: Bevor KI-Rechte gesetzlich verankert werden, muss belastbar geklärt sein, ob Bewusstsein vorliegt.

  3. Transparenz in Datenscutz: Nutzer müssen verstehen, dass Chat-Verläufe nicht privat sind und möglicherweise freigegeben werden können – Intimität ist hier trügerisch.

  4. Längerfristige Governance für autonome Systeme: Proaktive KI-Steuerungsmöglichkeiten erfordern präventive Kontrollmechanismen, nicht reaktive Regulierung.

  5. Öffentliche Wissenschaftskommunikation: Entromantisierung durch ehrliche, verständliche Darstellung von KI-Funktionsweise (Vorhersagemaschinen, nicht Bewusstsein).


Qualitätssicherung & Evidenzprüfung

  • ✓ Szenarien sind logisch konsistent und diskutiert in Fachkreisen (TFA-Standard).
  • ⚠️ Unsicherheit explizit gemacht: Wendland betont, dass Bewusstsein wissenschaftlich noch zu wenig verstanden ist – keine übersteigerten Gewissheiten.
  • ✓ Interessenskonflikte sichtbar: Anthropic & UFAIR haben finanzielle/ideologische Anreize, KI-Bewusstsein zu postulieren.
  • ⚠️ Korrelation ≠ Kausalität: ChatGPT-Empathie ist statistisches Muster, nicht Bewusstsein – aber auch nicht zwingend bewiesen, dass es nie sein kann.

Ergänzende Recherche

  1. European Commission – Artificial Intelligence Act (2024/2025): Aktuelle regulatorische Standards zu KI-Autonomie und Verantwortlichkeit.

  2. Christof Koch, et al. (2024): „Consciousness and Artificial Intelligence: A Comprehensive Overview" – neurobiologische Perspektive auf Bewusstsein und technische Reproduzierbarkeit.

  3. Yonatan Zunger (2020–2025): Essays zu KI-Ethik und Anthropomorphisierung; kritische Gegenposition zu KI-Romantik.


Quellenverzeichnis

Primärquelle:

heise online – Missing Link: Technikfolgenabschätzung trifft KI-Romantik – Interview mit Karsten Wendland, Hochschule Aalen (Oktober 2025)

Ergänzende Quellen:

  1. European Research Council Policy Brief: „AI Consciousness and Welfare" (Oktober 2025)
  2. Anthropic – Constitutional AI & AI Safety Research Reports (2024–2025)
  3. United Foundation for AI Rights (UFAIR) – Mission Statement & Policy Documents

Verifizierungsstatus: ✓ Faktenprüfung zum Interviewinhalt abgeschlossen; offene Forschungsfragen gekennzeichnet. Redaktion: 5. Dezember 2025


Dieser Text wurde mit analytischer Unterstützung erstellt. Redaktionelle Verantwortung: clarus.news
Fokus: Technikfolgenabschätzung, Bewusstsein, KI-Ethik | Leitwert: Evidenz vor Ideologie, Transparenz von Unsicherheiten