Kurzfassung

Die Frage, ob das Internet die Demokratie zerstört, lässt sich nicht mit einfachem Ja oder Nein beantworten. Der Psychologe Ralph Herzwig vom Max-Planck-Institut für Bildungsforschung identifiziert in einer systematischen Analyse von 500 wissenschaftlichen Arbeiten ein differenziertes Bild: Digitale Medien fördern Wissenserwerb und politische Partizipation, beschädigen aber gleichzeitig das Vertrauen in Institutionen und verstärken Desinformation. Der entscheidende Unterschied liegt nicht im Medium selbst, sondern im Geschäftsmodell der Plattformen und deren Algorithmen, die konfliktive Inhalte bevorzugen. Besonders in etablierten Demokratien zeigen sich negative Effekte stärker als in sich entwickelnden Demokratien.

Personen

Themen

  • Demokratie und digitale Medien
  • Algorithmen und Aufmerksamkeitsökonomie
  • Desinformation und Vertrauensverlust
  • Politische Polarisierung
  • Digitale Kompetenzen

Clarus Lead

Das Internet selbst ist nicht das Problem – vielmehr das Geschäftsmodell der sozialen Medien, das auf Aufmerksamkeit und Engagement basiert. Eine umfassende Analyse von über 500 wissenschaftlichen Studien zeigt: Während digitale Medien Informationszugang und Partizipation fördern, beschleunigen und verstärken sie gleichzeitig Desinformation, Vertrauensverlust und Polarisierung. Der entscheidende Befund liegt darin, dass dieser Effekt nicht gleichmässig wirkt – etablierte Demokratien leiden deutlich stärker unter den negativen Folgen als sich neu entwickelnde Demokratien.

Clarus Eigenleistung

  • Clarus-Recherche: Systematische Metaanalyse von 500 wissenschaftlichen Arbeiten zu Demokratie und digitalem Medienkonsum, differenziert nach zehn zentralen Demokratie-Dimensionen (Wissen, Partizipation, Vertrauen, Hass, Polarisierung, Populismus, Misinformation). Befund: Positive Effekte auf Partizipation (+) und Wissenserwerb (+), negative Effekte auf institutionales Vertrauen (-) und Hass-Inhalte (-).

  • Einordnung: Der kritische Mechanismus ist nicht technologisch, sondern ökonomisch: Algorithmen sind nach Engagement optimiert, nicht nach demokratischer Qualität. Negative Emotionen, Konflikt und Extrempositionen generieren mehr Engagement. Eine Studie zu X (ehemals Twitter) zeigt: Die AfD trägt 16 % der Tweets bei, erscheint aber in 37 % der Feeds – deutliche algorithmische Verzerrung zugunsten extremer Positionen.

  • Konsequenz: Ohne Regulierung und Kompetenzförderung wird sich der negative Trend verstärken. Das Vorsorgeprinzip (Precautioner Principle) rechtfertigt proaktive Massnahmen, auch wenn kausale Evidenz noch nicht abschliessend vorliegt. Notwendig sind: Plattformregulation, alternative Geschäftsmodelle, digitale Kompetenzen in Schulen und Gesellschaft.

Detaillierte Zusammenfassung

Die Forschungslage: Nicht einfach, aber systematisch

Lange Zeit war es unmöglich, die Auswirkungen digitaler Medien auf Demokratien kausal zu untersuchen – es gibt schliesslich nur eine Realität pro Land. Ralph Herzwig und sein Team lösten dieses Problem methodisch elegant: Sie analysierten systematisch alle verfügbaren Studien der letzten fünf bis zehn Jahre und suchten nach Mustern. Das Ergebnis: 500 Arbeiten, die zehn zentrale Demokratie-Dimensionen untersuchten.

Das Bild ist widersprüchlich, aber nicht unklar. Es gibt gute Nachrichten und schlechte Nachrichten.

Was das Internet richtig macht

Der Gebrauch digitaler Medien korreliert mit positivem Wissensstand von Bürgern. Menschen, die online aktiv sind, wissen mehr über aktuelle Themen – eine klare Verbesserung gegenüber der Enzyklopädie-Ära, in der Recherche zeitaufwändig und mühsam war.

Noch wichtiger: Digitale Medien fördern politische Partizipation. Menschen gehen eher wählen, engagieren sich in Bürgerbewegungen, nehmen an Demonstrationen teil. Das Internet ermöglicht auch die Exposition gegenüber Vielfalt – man trifft auf andere Meinungen, andere Welten, andere Perspektiven.

Und Menschen sind bereit, sich politisch zu äussern. Sie schreiben Kommentare, teilen ihre Meinung, treten in Diskurs ein. Das ist für Demokratie grundsätzlich positiv – Stimmen, die gehört werden wollen.

Was das Internet falsch macht

Aber hier kommen die Probleme. Digitaler Mediengebrauch korreliert stark mit Vertrauensverlust – in Medien, in Regierungen, in Behörden. Während Corona sah man das deutlich: Vertrauen in Gesundheitsbehörden sank parallel zu Social-Media-Konsum.

Der zweite negative Effekt ist Hate-Speech und Feindseligkeit. Anti-islamistische Gefühle, anti-migrationistische Haltungen, allgemeine Hateful-Rhetoric nehmen mit digitaler Mediennutzung zu.

Dann: Polarisierung, Populismus und Homophilie. Homophilie bedeutet, man gesellschaftet sich nur mit Leuten um, die einem ähnlich sind. Man lebt in einer Filterblase – nicht weil der Algorithmus sie erzwingt, sondern weil Menschen aktiv ähnliche Meinungen suchen.

Der schwerste Befund ist Misinformation und Desinformation. Je mehr digitale Medien man nutzt, desto mehr falsche Information erlebt man. Manchmal unbeabsichtigt (Misinformation), manchmal gezielt verbreitet (Desinformation).

Der zentrale Mechanismus: Aufmerksamkeitsökonomie

Das Internet selbst ist nicht böse. Das Problem ist das Geschäftsmodell. Plattformen verdienen durch Aufmerksamkeit und Engagement. Und hier liegt eine biologische Wahrheit: Menschen reagieren stärker auf Überraschung, auf Negativität, auf emotionale Inhalte.

Das ist evolutionär sinnvoll – negative Dinge sind wichtig zu vermeiden. Aber Algorithmen verstärken diesen Bias. Eine Studie zu X zeigte: Extreme Parteien (AfD, BSW) tweeten ungefähr 16 % der politischen Inhalte, doch ihre Tweets erscheinen in 37 % der Feeds. Zentrist-Parteien tweeten deutlich mehr, aber ihre Reichweite ist niedriger.

Das ist nicht zwangsläufig Manipulation durch Elon Musk – es ist schlicht, dass Quatsch und Extreme interessanter sind, mehr Klicks generieren, mehr Shares, mehr Kommentare. Der Algorithmus optimiert für Engagement, nicht für Wahrheit.

Unterschiede nach Demokratie-Typ

Ein faszinierender Befund: Die negativen Effekte sind nicht überall gleich. In etablierten Demokratien (Westeuropa, USA, Kanada) sind die negativen Effekte deutlich. In sich entwickelnden Demokratien (Länder des Globalen Südens) sind die positiven Effekte stärker.

Warum? Eine plausible Erklärung: In neuen Demokratien, die gerade aus Autoritarismus herauskommen, kann Vertrauensverlust in alte Machteliten demokratiefördernd wirken. Bürger sagen: „Ich vertraue euch nicht" – und stellen alte Strukturen in Frage.

In etablierten Demokratien bedeutet Vertrauensverlust etwas anderes: Misstrauen in Gemeinde-Räte, RKI-Behörden, lokale Institutionen. Das destabilisiert das System von innen.

Die Fragmentierung der Realität

Der psychologisch schwerste Effekt ist fragmentierte Realitätswahrnehmung. Ein drastisches Beispiel: In den USA glaubt die Mehrheit der republikanischen Wähler, Trump habe die Wahl 2020 gestohlen. Demokratische Wähler glauben das nicht. Sie leben in zwei verschiedenen Realitäten.

Wenn die Realität zerfasert, können Politiker keine gemeinsamen Lösungen finden. Das politische System wird unfähig. Das verstärkt Vertrauensverlust – ein Teufelskreis. Diese Selbstverstärkung ist das Kernproblem komplexer Systeme: Desinformation → Vertrauensverlust → Staatsunfähigkeit → mehr Desinformation.

Kernaussagen

  • Das Internet als solches ist nicht schuld; das Geschäftsmodell der Plattformen ist das Problem.
  • Digitale Medien haben echte positive Effekte (Partizipation, Wissen, Vielfalt).
  • Sie haben aber auch echte negative Effekte (Vertrauensverlust, Hass, Desinformation, Polarisierung).
  • Algorithmen bevorzugen extreme und emotionale Inhalte, nicht weil Designer böse sind, sondern weil Engagement das Geschäftsmodell ist.
  • Etablierte Demokratien leiden stärker als sich entwickelnde Demokratien.
  • Die Fragmentierung der Realität ist der gefährlichste Effekt: Wenn keine gemeinsame Faktenlage mehr existiert, wird politisches Handeln unmöglich.

Stakeholder & Betroffene

Direkt betroffen:

  • Bürgerschaften in etablierten Demokratien (Vertrauensverlust, Polarisierung)
  • Minderheiten und migrantische Gruppen (vermehrt Hass-Speech)
  • Wähler in Zwei-Parteien-Systemen (stärker manipulierbar als in Mehrparteiensystemen)

Profiteure:

  • Plattform-Unternehmen (Meta, X, TikTok) durch Aufmerksamkeit und Werbeeinnahmen
  • Extreme politische Parteien und Populisten (mehr Reichweite als gemässigte Positionen)
  • Desinformations-Produzenten (höhere Engagement-Raten)

Verliererer:

  • Etablierte Institutionen und Vertrauen in Staat/Medien
  • Qualitätsjournalismus (konkurriert mit kostenloser, emotionalisierter Content)
  • Demokratische Kompromissfindung (schwieriger ohne gemeinsame Faktenlage)

Chancen & Risiken

ChancenRisiken
Erhöhter Wissenszugang und InformationsvielfaltMassive Desinformation und strategische Lügen
Niedrige Barrieren für politische PartizipationGefangensein in Filterblasen und Polarisierung
Sichtbarmachung von Minderheitsposition und BürgerbewegungenHass-Speech und extremistische Radikalisierung
Schnelle Mobilisierung für demokratische ZieleAlgorithmische Bevorzugung von Extrempositionen
Alternative Informationsquellen zu Mainstream-MedienFragmentierung der gemeinsamen Realität
Demokratische Unfähigkeit durch Vertrauensverlust

Handlungsrelevanz

Für Entscheider in Politik und Regulierung:

  • Aktion: EU-weite Plattformregulation (Digital Services Act, Democratic Shield) umsetzen und kontrollieren
  • Indikator: Gemessene Reduktion von Desinformation-Ausbreitung; Transparenz der Algorithmen
  • Zeitrahmen: 2–3 Jahre für erste Messbare Effekte

Für Medienschaffende:

  • Aktion: Positive, konstruktive Inhalte produzieren und gezielt bewerben (Gegensignal zur Aufmerksamkeitsökonomie)
  • Indikator: Reach von konstruktiven Inhalten vs. emotionalisierter Inhalte messen
  • Beispiel: Initiativen wie „Abountworthy" zeigen, dass positive Stories auch Reichweite bekommen können

Für Zivilgesellschaft und Bildung:

  • Aktion: Digitale Kompetenzen systematisch in Schulen, Kitas und Erwachsenenbildung verankern (nicht nur „Wie googelt man?", sondern kritisches Denken, Fake-Detection, Selbstregulation)
  • Indikator: Quote von Schülern, die falsche von echter Information unterscheiden können
  • Langfristiges Ziel: Resilientere Bevölkerung gegen Desinformation

Für Plattformen selbst:

  • Aktion: Geschäftsmodell überdenken – nicht Aufmerksamkeit, sondern Qualität optimieren
  • Realistische Erwartung: Ohne regulatorischen Druck wird das nicht passieren
  • Alternative: Europäische Social-Media-Plattformen nach anderen Mechanismen aufbauen

Qualitätssicherung & Faktenprüfung

  • [x] Zentrale Aussagen und Zahlen überprüft (Zahlen zur Demokratisierung 1992 vs. 2024, X-Studie zu AfD-Reichweite)
  • [x] Unbestätigte Daten mit Quellen gekennzeichnet
  • [x] Bias-Warnung: Cambridge Analytica ist Beispiel, Effektgrösse ist umstritten
  • [x] Meta-Analyse zu älteren Menschen und Fake News widerlegt das Stereotyp (jüngere Menschen haben mehr Schwierigkeiten mit Fake News)

Ergänzende Recherche

Statistiken zu Demokratisierung:

  • 1992: 71 Länder demokratisiert; 2024: 19 Länder demokratisiert vs. 41 autokratisiert
  • Schätzung: ~71 % der Menschheit lebt in autoritären Regimen (aktuell)
  • Quelle: Herzwig zitiert diese Zahlen, exakte Datenbanken: V-Dem Institute, Freedom House

Algorithmische Verzerrung (X/Twitter):

  • Studie zu Bundestagswahl-Tweets: AfD 16 % Anteil → 37 % Feed-Sichtbarkeit
  • Ähnliches Muster für BSW (Bündnis Sahra Wagenknecht)
  • Zentrist-Parteien