Kurzfassung
Anthropic hat drei chinesische KI-Labore – DeepSeek, Moonshot und Minimax – beschuldigt, über 16 Millionen Anfragen durch 24.000 gefälschte Konten Claude's fortgeschrittene Fähigkeiten zu extrahieren. Die Technik der „Destillation" ermöglicht es Konkurrenten, KI-Kapazitäten zu Bruchteilen der Entwicklungskosten zu kopieren. OpenAI und Google erheben ähnliche Vorwürfe. Minimax ist vom viertgrössten auf den grössten KI-Anbieter bei OpenRouter aufgestiegen – Anthropic verlor sein Marktanteils von 40% auf 12% in einem Jahr. Die Angelegenheit betrifft nicht nur Silicon Valley, sondern gefährdet die wirtschaftliche Dominanz der USA.
Personen
- Jordan Wilson (Podcast-Host Everyday AI)
Themen
- KI-Sicherheit und Datendiebstahl
- Geopolitische Wettbewerbe
- Künstliche Intelligenz Modelle
- US-China Tech-Rivalität
Clarus Lead
Drei chinesische KI-Labore destillieren illegale Fähigkeiten von Claude massiv ab. Anthropic dokumentiert 16 Millionen unerlaubte API-Zugriffe durch Proxy-Netzwerke – eine koordinierte Kampagne mit geopolitischen Folgen. Warum relevant: Minimax ist nun Marktführer bei Entwickler-APIs; Anthropic verlor Milliarden Dollar Umsatz. Das bedroht nicht einzelne Startups, sondern die gesamte US-Wirtschaft, die auf proprietären KI-Modellen aufbaut. Der Kern-Konflikt: Export-Kontrollen gegen Chips funktionieren nicht – Destillation ist schneller, billiger und schwer zu unterbinden.
Detaillierte Zusammenfassung
Umfang des Datendiebstahls
Anthropic veröffentlichte am 23. Februar Beweise für industrielle Diebstahlskampagnen. DeepSeek, Moonshot und Minimax betrieben Proxy-Netzwerke, die gleichzeitig über 20.000 gefälschte Konten verwalteten. Ziel war die Extraktion von Reasoning-Fähigkeiten – nicht nur Antworten, sondern die Denk-Schritte dahinter. Die Labs forderten Claude auf, schritt-für-schritt Lösungswege offenzulegen, um damit neue Modelle zu trainieren. Destillation ist legal, wenn eine Firma ihre eigenen Modelle verkleinert. Sie wird zu Piraterie, wenn Konkurrenten fremde Outputs kopieren. Die Parallele: Wie Netflix-Filme illegal aufzeichnen, für CGI ändern und unter eigenem Label verkaufen – nur dass das in Sekunden bei Millionen Prompts geschieht.
Wirtschaftliche Folgen für US-Unternehmen
OpenRouter, die grösste neutrale API-Plattform, zeigt dramatische Marktverschiebungen. Vor einem Jahr kontrollierte Anthropic 40% der Token-Nutzung. Stand Februar 2026: nur noch 12%. Minimax sprang auf 20% – grösser als Google und OpenAI zusammen. Für Anthropic bedeutet das (allein über OpenRouter) ein Verlust von 750 Millionen bis einer Milliarde Dollar jährlich. Hinzu kommen direkte Kunden-Abwanderungen. Anthropic bereitet einen Börsengang vor; das Wachstum stagniert – diese Daten-Extraktion trifft das Unternehmen in kritischem Moment.
Sicherheits- und Geopolitik-Dimension
Destillierte Modelle fehlen häufig Sicherheits-Schranken, die US-Labs integrieren. Das ermöglicht potenziell militärische und Überwachungs-Einsätze ohne Kontrollen. Das FBI und der US-Handelsrepräsentant schätzen den jährlichen IP-Diebstahl durch China auf 225–600 Milliarden Dollar. Über zwei Jahrzehnte: vier bis zwölf Billionen Dollar Vermögensabfluss. Chip-Exporte wurden begrenzt – doch Destillation ist das schnellere Loch im Zaun. Während die USA teure GPU-Kontrollen verhängen, trainieren chinesische Labs kostenlos auf US-Outputs.
Kernaussagen
- Drei chinesische Labs generieren 16 Millionen illegale Prompts durch 24.000 Fake-Konten zur Destillation von Claude
- Minimax wird #1-Anbieter auf OpenRouter; Anthropic fällt von 40% auf 12% Marktanteil
- Wirtschaftlicher Schaden für US-Tech: 750 Mio.–mehrere Milliarden Dollar jährlich (nur nachverfolgbar)
- Geopolitisches Risiko: Destillation umgeht Chip-Export-Kontrollen schneller und billiger
- Sicherheitslücke: Geraubte Modelle fehlen Schutzmassnahmen gegen militärische Missbrauchung
Kritische Fragen
Datenqualität: Anthropic belegt die 16 Millionen Prompts mit IP- und Metadaten-Analyse – doch wie lückenlos ist diese Nachverfolgung? Könnten legitimale Nutzungsmuster (VPN, regionale Zugriffe) fälschlicherweise als „Destillation" klassifiziert werden?
Eigene Verantwortung: Anthropic zahlte 1,5 Milliarden Dollar für Urheberrechtsverletzungen (Libgen-Daten beim Training). Welche Garantie gibt es, dass Anthropic seine eigenen Modelle nicht ähnlich gewonnen hat – und daher moralisch die Position innehat, andere anzuklagen?
Kausalität bei Minimax-Erfolg: Minimax nutzt destillierte Fähigkeiten nachweislich – doch ist der Marktanteil-Sprung allein dadurch zu erklären? Könnten bessere Kostenoptimierung, Nutzererlebnis oder regionale Nachfrage ebenso wirken?
Umsetzbarkeit von Gegenmitteln: Wasserzeichen und Rate-Limiting funktionieren nicht im Grossmassstab. Welche Technologie könnte Destillation praktisch verhindern, ohne die API-Nutzbarkeit zu zerstören?
Geopolitische Konsequenzen: Falls die USA Chinese Labs sanktionieren – könnten diese nicht einfach auf Open-Source-Modelle (bereits verfügbar) ausweichen und KI-Fortschritt genau gleich schnell erreichen?
Geschäftsmodell-Risiko: Ist das Angebot von Frontier-KI-APIs über öffentliche Internet-Infrastruktur strukturell anfällig für Destillation – und sollten US-Labs auf lokale Lizenzen und Sicherheits-Audits ausweichen?
Quellenverzeichnis
Primärquelle: [Everyday AI Show – Episode 720: China Stealing AI from the U.S.] – https://pscrb.fm/rss/p/www.buzzsprout.com/2175779/episodes/18739212-ep-720-china-stealing-ai-from-the-u-s-inside-anthropic-s-bombshell-allegations.mp3
Verifizierungsstatus: ✓ 2026-02-24
Dieser Text wurde mit Unterstützung eines KI-Modells erstellt.
Redaktionelle Verantwortung: clarus.news | Faktenprüfung: 2026-02-24