Kurzfassung
Das US-Militär setzte erstmals die KI-Software Claude von Anthropic direkt während einer Kampfoperation gegen Venezuelas Präsidenten Nicolás Maduro ein – ein Bruch mit den eigenen Nutzungsbedingungen des Unternehmens. Die Operation führte zu Bombardements und Dutzenden Todesfällen, was gegen Anthropics explizites Verbot der KI-Verwendung für Gewalt verstösst. Das Pentagon übt Druck aus, damit Anthropic auch bei autonomen Waffensystemen kooperiert, während das Unternehmen seine moralischen Prinzipien verteidigen will.
Personen
- Dario Amodei (CEO Anthropic)
- Nicolás Maduro (Venezuelas Präsident)
- Pete Hegseth (US-Verteidigungsminister)
Themen
- Künstliche Intelligenz in Militäroperationen
- Unternehmensethik vs. Regierungsaufträge
- KI-Regulierung und Kontrolle
- Geopolitik und Technologie
Clarus Lead
Das US-Militär nutzte Claude, das KI-Modell von Anthropic, bei der Operation gegen Venezuelas Präsidenten Maduro – nicht nur zur Vorbereitung, sondern erstmals auch während der Kampfhandlungen selbst. Die Einsatzkräfte warfen Bomben ab und töteten Dutzende Menschen. Dies verstösst direkt gegen Anthropics Nutzungsbedingungen, die den Einsatz für Gewalt und den «Verlust menschlichen Lebens» explizit verbieten. Das Pentagon droht nun, den Vertrag mit Anthropic zu beenden, falls das Unternehmen nicht auch autonome Waffensysteme und Massenüberwachung mit Claude ermöglicht – ein zentrales Dilemma für Anthropic zwischen moralischem Anspruch und wirtschaftlicher Abhängigkeit von Regierungsmitteln.
Detaillierte Zusammenfassung
Anthropic wurde 2021 gegründet, um KI auf verantwortungsvolle Weise zu entwickeln. CEO Dario Amodei positioniert sich als Befürworter strengerer Regulierung und warnt öffentlich vor Technologierisiken. Claude gilt als eines der besten KI-Systeme und wird bevorzugt von Firmenkunden und Programmierern genutzt. Das Pentagon schloss 2024 einen 200-Millionen-Dollar-Vertrag mit Anthropic ab und erlangte sogar Zugriff auf die höchsten Geheimhaltungsstufen.
Die Entdeckung der Venezuela-Operation offenbart einen fundamentalen Konflikt: Anthropic ist derzeit mit 380 Milliarden Dollar bewertet, schreibt aber keine Gewinne. Das Unternehmen plant seinen Börsengang und ist auf lukrative Regierungsaufträge angewiesen, um seine hohe Bewertung zu rechtfertigen. Gleichzeitig bauen moralische Prinzipien – der Schutz vor missbräuchlicher KI-Nutzung – das Vertrauen von Firmenkunden und KI-Talenten auf.
Das Pentagon unter Verteidigungsminister Pete Hegseth fordert ultimativ, dass Anthropic «alle rechtmässigen Anwendungen» genehmigt oder den Vertrag verliert. Hegseth betonte bereits, dass das Pentagon keine KI-Modelle nutzen werde, die Kriegführung verhindern. Parallel schloss das Pentagon Verträge mit xAI (Elon Musk) und nutzt massgeschneiderte Versionen von OpenAI und Google. Anthropic weigert sich bislang, bei autonomen Waffensystemen und Massenüberwachung nachzugeben – doch der wirtschaftliche Druck wächst.
Kernaussagen
- Erstmaliger Einsatz: Claude wurde erstmals während einer aktiven Militäroperation (nicht nur bei der Planung) direkt eingesetzt
- Vertragsverletzung: Die Operation mit Bombenabwürfen und Todesfällen verstösst explizit gegen Anthropics Nutzungsbedingungen
- Pentagon-Ultimatum: Das US-Militär droht mit Vertragsbeendigung, falls Anthropic nicht auch autonome Waffen und Überwachung erlaubt
- Wirtschaftliches Dilemma: Anthropic braucht Regierungsmillionen für seinen geplanten Börsengang, riskiert aber seinen Gründungsethos
- Branchenvorbild: Der Ausgang könnte beeinflussen, wie andere KI-Firmen mit militärischen Anforderungen umgehen
Kritische Fragen
Quellenvalidität: Das Wall Street Journal zitiert «nicht näher genannte Quellen» – wer genau teilte diese sensiblen Informationen über eine streng geheime Operation, und welche Interessen könnten dahinterstecken?
Anthropic-Kooperation: Warum erkundigte sich Anthropic beim Pentagon nach Details der Operation, wenn das Unternehmen seine Nutzungsbedingungen schützen wollte – war dies eine Kontrollmassnahme oder eine De-facto-Akzeptanz?
«Rechtmässigkeit» vs. Ethik: Das Pentagon definiert die Venezuela-Operation als «rechtmässig», während sie Anthropics ethischen Standards widerspricht – welcher Standard sollte Vorrang haben, und wer entscheidet das?
Alternative Szenarien: Hätte Anthropic technisch verhindern können, dass Claude über Palantir Technologies ohne direktes Wissen eingesetzt wird, oder ist dies ein Kontrolldefizit im gesamten Rüstungs-KI-Ökosystem?
Druck auf andere Firmen: Wenn Anthropic nachgibt, werden OpenAI, Google und andere KI-Firmen ähnliche Pentagon-Ultimaten erhalten – sind die aktuellen Regierungsrichtlinien zur KI-Sicherheit ausreichend oder überholt?
Langfristiges Risiko: Kann ein KI-Unternehmen glaubwürdig «humane Werte» propagieren, während es Regierungsaufträge mit militärischen Anwendungen akzeptiert, ohne seine Marke zu beschädigen?
Quellenverzeichnis
Primärquelle: Darf Claude in den Krieg? – Neue Zürcher Zeitung, 15.02.2026
Ergänzende Quellen (zitiert im Artikel):
- Wall Street Journal – Venezuela-Operation und Anthropic-Beteiligung
- Axios – Claude-Einsatz während Operation und Pentagon-Reaktion
- Reuters – Dario Amodei und Nicolás Maduro (Bildmaterial)
Verifizierungsstatus: ✓ 15.02.2026
Dieser Text wurde mit Unterstützung eines KI-Modells erstellt. Redaktionelle Verantwortung: clarus.news | Faktenprüfung: 15.02.2026