Kurzfassung
Das amerikanische Militär setzt im Iran-Krieg künstliche Intelligenz massiv ein, um Entscheidungen zu beschleunigen. Das KI-Modell Claude von Anthropic half, in nur vier Tagen 2000 Angriffsziele zu treffen – ein beispielloses Tempo. Fachleute warnen, dass KI das menschliche Urteilsvermögen bei tödlichen Entscheidungen unterminieren könnte und das humanitäre Völkerrecht fundamental unter Druck gerät. International scheitern Verhandlungen über bindende Regeln für autonome Waffensysteme an Widerstand der Grossmächte.
Personen
- Michael Horowitz (Militärexperte, University of Pennsylvania)
- Jessica Dorsey (Völkerrechtlerin, Universität Utrecht)
- Reto Wollenmann (Schweizer Rüstungskontrollexperte)
Themen
- Autonome Waffensysteme und KI im Militär
- Humanitäres Völkerrecht und Kriegsführung
- Internationale Rüstungskontrollverhandlungen
- Menschliche Kontrolle über Waffeneinsatz
Clarus Lead
Das amerikanische Militär nutzt im laufenden Iran-Krieg das KI-Modell Claude von Anthropic zur rasanten Zielerfassung. In 24 Stunden wurden 1000 Ziele getroffen, in vier Tagen insgesamt 2000 – eine historische Beschleunigung gegenüber früheren Konflikten. Das Tempo wirft zentrale Fragen auf: Können Kommandeure rechtliche und ethische Abwägungen noch angemessen treffen, wenn KI-Systeme Millisekunden über Leben und Tod entscheiden?
Detaillierte Zusammenfassung
Autonome Waffensysteme sind keine Science-Fiction mehr, sondern operativ seit Jahrzehnten im Einsatz. Lenkwaffen wie die amerikanische Javelin finden ihre Ziele selbstständig auf Basis von Infrarot oder Radar – ohne KI. Kamikazedrohnen, massenhaft im Ukraine-Krieg eingesetzt, schweben über Gebiet, bis ihre Sensoren ein Ziel ausmachen. Diese Autonomie ist etabliert und legal.
Doch KI verschärft das Problem fundamental: Sie verdichtet die «Kill Chain» – den Weg zur Tötungsentscheidung – bis zur praktischen Unzumutbarkeit menschlicher Reflexion. Völkerrechtlerin Dorsey warnt vor «Automation Bias», der Neigung von Menschen, Maschinenvorschläge unhinterfragt zu akzeptieren. Im schlimmsten Fall folgt «kognitive Kapitulation», wenn der Mensch sich intellektuell dem Computer unterordnet. Das Kernproblem: humanitäres Völkerrecht verlangt kontextbezogene, qualitative Urteile – aber KI ersetzt sie durch numerische Bewertungen.
Ein konkreter Fall illustriert die Gefahr: Ein Angriff auf eine Mädchenschule im Iran tötete über 170 Menschen, überwiegend Kinder. Die Schule war Jahrzehnte nicht als Militäranlage genutzt worden. Ob Claude auf alter Satellitendaten basierend diese als Ziel vorschlug oder menschliches Versagen vorlag, bleibt unklar – das Pentagon ermittelt.
Diplomatische Lähmung
Auf internationaler Ebene blockieren Grossmächte bindende Regeln. Die Schweiz und 42 weitere Länder fordern an der Konvention über konventionelle Waffen (CCW) seit 2014, dass Menschen KI-Empfehlungen nachvollziehen können, statt diese per Knopfdruck zu bestätigen. Doch USA, China und Russland lehnen dies ab – sie interessiert nur rechtliche Kompatibilität des Ergebnisses, nicht der Entscheidungsweg. Beim REAIM-Gipfel im Februar 2026 weigerten sich USA und China, selbst unverbindliche Deklarationen zu unterzeichnen.
Kernaussagen
- KI verkürzt Entscheidungszeiten radikal: 2000 Ziele in vier Tagen statt sechs Monaten im IS-Krieg
- Humanitäres Völkerrecht verlangt qualitative, kontextbezogene Urteile – KI ersetzt diese durch Algorithmen
- Menschliche Kontrolle wird zur Fiktion, wenn das Tempo Reflexion unmöglich macht
- Automation Bias führt dazu, dass Menschen Maschinenempfehlungen unreflektiert befolgen
- Internationale Verhandlungen scheitern an Grossmächten, die Autonomie ohne Kontrolle fordern
- Konkrete Fehler wie der Angriff auf eine Schulanlage zeigen Implementierungsrisiken
Kritische Fragen
Evidenz/Datenqualität: Wie alt waren die Satellitendaten, auf denen Claude die Mädchenschule als Ziel analysierte? Welche Fehlerquote zeigt die KI bei veralteten Eingabedaten?
Interessenkonflikte: Anthropic verdient 200 Millionen Dollar mit dem Pentagon-Vertrag – inwiefern können die geäusserten ethischen Bedenken glaubwürdig sein, wenn das Geschäftsmodell von Militäraufträgen abhängt?
Kausalität: Ist nachgewiesen, dass die erhöhte Angriffszahl (2000 in vier Tagen) zu mehr zivilen Opfern führt als bei langsameren, händisch koordinierten Einsätzen?
Umsetzbarkeit: Wenn der Pentagon-Bericht zeigt, dass «unklar» ist, wer für den Schulangriff verantwortlich ist – wie soll Rechenschaftspflicht überhaupt funktionieren?
Alternativen: Warum investieren Grossmächte nicht in Systeme, die KI-Empfehlungen transparent machen, statt sie zu beschleunigen?
Gegenhypothesen: Könnten langsamere, KI-unterstützte Systeme (ohne Automatisierungsdruck) humanitäres Recht besser einhalten als aktuelle manuelle Verfahren?
Quellenverzeichnis
Primärquelle: Künstliche Intelligenz ist der Brandbeschleuniger des Iran-Kriegs – Neue Zürcher Zeitung, Leonid Leiva Ariosa, 14.03.2026
Verifizierungsstatus: ✓ 14.03.2026
Dieser Text wurde mit Unterstützung eines KI-Modells erstellt. Redaktionelle Verantwortung: clarus.news | Faktenprüfung: 14.03.2026