Kurzfassung

Ein internationales Autorenteam warnt in einem Leitartikel der renommierten Fachzeitschrift Science, dass Schwärme aus autonomen KI-Agenten demokratische Wahlen durch koordinierte Desinformationskampagnen beeinflussen könnten. Die Friedensnobelpreisträgerin Maria Ressa und Audrey Tang, ehemalige Digitalministerin Taiwans, sehen die Demokratie in Gefahr. Ein Schweizer Desinformations-Experte relativiert jedoch die Gefahr und argumentiert, dass Stimmbürger sich nicht so leicht manipulieren lassen.

Personen

Themen

  • Künstliche Intelligenz und Desinformation
  • Demokratische Wahlen und Beeinflussung
  • KI-gesteuerte Astroturfing-Kampagnen
  • Vertrauen in digitale Informationen
  • Bestätigungsbias und Polarisierung

Detaillierte Zusammenfassung

Die Warnung prominenter Experten

Ein 22-köpfiges Autorenteam hat in der wissenschaftlichen Fachzeitschrift Science einen Leitartikel veröffentlicht, der vor potenziellen Gefahren autonomer KI-Agenten für demokratische Systeme warnt. Die Autoren beschreiben ein Szenario, in dem Tausende KI-betriebener Agenten sich in „böswilligen Schwärmen" koordinieren könnten, um öffentliche Debatten auf digitalen Plattformen gezielt zu verzerren. Im Gegensatz zu bisherigen Bot-Gruppen würden diese Systeme strategisch, koordiniert und lernfähig agieren sowie plattformübergreifend wirken.

Zu den prominentesten Mitautoren gehören Maria Ressa, eine philippinische Journalistin, die für ihren Einsatz für Redefreiheit den Friedensnobelpreis erhielt und selbst jahrelang digitalen Hetzkampagnen ausgesetzt war. Audrey Tang, die ehemalige Digitalministerin Taiwans, ist eine Vordenkerin für digitale Demokratie. Der renommierte KI-Kritiker Gary Marcus sowie ein emeritierter Professor der ETH Zürich sind ebenfalls beteiligt. Die Hauptautoren sind Jonas Kunst und Daniel Thilo Schroeder aus Norwegen.

Das Konzept der künstlich simulierten Konsense

Die Autoren warnen konkret vor einem Manipulationsmechanismus: autonome KI-Agenten könnten gefälschte Social-Media-Profile betreiben, die unterschiedliche politische Überzeugungen zu simulieren vorgeben. Böswillige Aktoren könnten beispielsweise zwei parallele Netzwerke aus je hundert Profilen betreiben – eines mit angeblich republikanischen, eines mit demokratischen Nutzern. Während diese Profile bei kontroversen Themen scheinbar uneinig sind, könnten sie bei strategisch ausgewählten Themen plötzlich einen Kompromiss finden. Für echte Nutzer, die diese Debatten verfolgen, entstehe der Eindruck, dass ein breiter gesellschaftlicher Konsens existiere – eine Technik, die als „Astroturfing" bekannt ist.

Astroturfing ist eine Manipulationsmethode, bei der künstlich erzeugte Netzwerke als legitime gesellschaftliche Bewegungen getarnt werden. Der Begriff stammt vom amerikanischen Hersteller von Kunstrasen und dient als Gegenpol zu echten Graswurzelbewegungen. Bislang waren solche Bot-Netzwerke aufwendig und teuer zu betreiben. Autonome KI-Agenten werden diese Kosten jedoch massiv senken. Eine einzelne Person könnte Tausende KI-Agenten steuern. Die Sprachmodelle passen ihre Wortwahl problemlos an die Zielgruppen an und imitieren menschliches Verhalten durch begrenzte Posting-Mengen und strategische Zeitfenster. Durch A/B-Tests könnten sie kontinuierlich ihre Überzeugungskraft steigern.

Relativierung durch Desinformationsforschung

Nicht alle Experten teilen die Alarmhaltung. Sacha Altay, Forscher an der Universität Zürich, relativiert die Gefahr basierend auf empirischen Studien: Der Einfluss von vorsätzlich verbreiteten Falschinformationen auf Wahlen und Abstimmungen sei verschwindend gering. Er bezweifelt, dass KI-Agenten die öffentliche Debatte in Demokratien fundamental umkrempeln können.

Obwohl Sprachmodelle wie ChatGPT in intensiven Gesprächen überzeugend argumentieren können, stellt Altay infrage, ob Menschen in sozialen Netzwerken wirklich stundenlang mit Fremden über Politik debattieren würden. Die meisten nutzten soziale Medien zur Unterhaltung, nicht zur politischen Meinungsbildung. Interessierte sich ein Nutzer für Politik, fände er auf den Plattformen durchaus seriöse journalistische Quellen.

Die längerfristige Perspektive

Trotz Altays Relativierung ist es noch zu früh, KI-Agenten als unbedenklich für die Demokratie einzustufen. KI wird kontinuierlich besser, und die Unterscheidung zwischen echten und computergenierten Inhalten wird immer schwächer. Dies könnte zu einem grundlegenden Vertrauensverlust in Informationen führen.

Die Forschung zeigt ein paradoxes Phänomen: Menschen glauben primär jenen Informationen, die zu ihrem bestehenden Weltbild passen. KI-Agenten könnten daher nicht unbedingt Standpunkte ändern, sondern könnten sogar bewirken, dass Menschen ihre politischen Präferenzen verfestigen und Polarisierung zunimmt.

Kernaussagen

  • Autonome KI-Agenten könnten durch koordinierte Astroturfing-Kampagnen künstlich erzeugte Konsense schaffen und öffentliche Debatten manipulieren
  • Die Kosten für solche Manipulationskampagnen sinken massiv, da eine Person Tausende KI-Agenten steuern kann
  • Prominente Experten wie die Friedensnobelpreisträgerin Maria Ressa warnen vor Gefährdung der Demokratie
  • Desinformationsforschung zeigt, dass der faktische Einfluss von Desinformation auf Wahlen bislang gering ist
  • Menschen glauben bevorzugt Informationen, die ihren Überzeugungen entsprechen, was Polarisierung verstärken könnte
  • Die langfristigen Auswirkungen autonomer KI auf Demokratien sind noch nicht vollständig absehbar

Metadaten

Sprache: Deutsch
Publikationsdatum: 23.01.2026
Quelle: https://www.nzz.ch/technologie/schwaerme-aus-ki-agenten-koennten-schon-bald-demokratische-wahlen-beeinflussen-warnen-prominente-experten-wirklich-ld.1921487
Autor: Gioia da Silva
Lesedauer (Original): 4 Minuten
Textlänge: ca. 4.800 Zeichen