Kurzfassung
Der europäische AI-Act setzt auf Risikobewertung statt pauschale Verbote – ein intelligentes Regelungsmodell, das aber eine zentrale Schwäche hat: die Rechtsdurchsetzung. Im Gespräch zwischen der Journalistin Simin Sadegi, dem KI-Wissenschaftler Aljoscha Brüchert und dem Juristen Ulf Burmeier wird deutlich, dass nicht die fehlenden Gesetze das Problem sind, sondern deren mangelnde praktische Umsetzung gegenüber globalen Tech-Konzernen. Europa braucht weniger neue Paragraphen, sondern mehr Durchsetzungskraft.
Personen
- Ulf Burmeier (Co-Host Lage der Nation, ehemaliger Richter)
- Simin Sadegi (Journalistin, Moderatorin SR)
- Aljoscha Brüchert (Wissenschaftler DFKI)
Themen
- AI-Act und Risikobewertung
- Rechtsdurchsetzung vs. Regulierungslücken
- Gesichtserkennung im öffentlichen Raum
- Urheberrecht und KI-Training
- Datenschutz-Grundverordnung als Spillover-Modell
Clarus Lead
Die EU hat mit dem AI-Act einen pragmatischen Weg gewählt: Statt alles zu verbieten, verpflichtet sie Unternehmen zu Risikobewertung und Transparenz. Das Problem liegt nicht in den Regeln selbst, sondern in ihrer Durchsetzung. Wenn chinesische oder amerikanische Konzerne die Vorschriften ignorieren, bleibt Europa oft zahnlos – es sei denn, das Geschäftsmodell zielt auf den EU-Markt ab. Für Ulf Burmeier, ehemaliger Richter am Landgericht Berlin und heute Journalist, ist klar: Rechtsdurchsetzung über Grenzen hinweg ist die zentrale Herausforderung, nicht die fehlende Gesetzgebung.
Detaillierte Zusammenfassung
Der AI-Act: Intelligente Regulierung mit Lücken
Der europäische Ansatz unterscheidet sich fundamental von dem „Wilden Westen" (USA) oder „Wilden Osten" (China). Der AI-Act arbeitet nicht mit pauschalen Verboten, sondern mit einer Risikostafflung: Hochrisiko-Anwendungen (Medizin, Bildung, kritische Infrastruktur) unterliegen strengeren Anforderungen, die meisten anderen Systeme laufen unter geringeren Sorgfaltspflichten. Sanktionen können sich auf Milliardenbeträge summieren – Durchsetzung also im Zweifel durch Schadenersatz.
Der Haken: Militär und Gesichtserkennung für innere Sicherheit sind vielfach ausgeklammert. Burmeier kritisiert genau das als zentrale Schwäche – flächendeckende Gesichtserkennung im öffentlichen Raum verändert das gesellschaftliche Zusammenleben drastisch, bleibt aber im AI-Act zu locker reguliert.
Das Durchsetzungsproblem
Hier zeigt sich Europas echtes Dilemma. Ein deutsches Gericht kann ein britisches oder amerikanisches Unternehmen verurteilen – doch die Entscheidung in Russland oder China durchzusetzen, ist praktisch unmöglich. Umgekehrt: Wenn die EU chinesische oder amerikanische Firmen zur Compliance verpflichtet, aber nicht durchsetzen kann, verpuffen die Regeln. Die einzige echte Hebel sind dann Marktzugang und Schadenersatzklagen.
Das funktioniert, weil grosse Tech-Konzerne mit EU-Kunden Geschäfte machen wollen. Wie bei der Datenschutz-Grundverordnung (DSGVO) strahlen Europas Standards weltweit aus – nicht aus Liebe, sondern aus Gewinnkalkül.
Konkrete Fallstricke: Was schützt die Bürgerin?
Der AI-Act schützt nicht durch strikte Verbote, sondern durch Handlungszwang. Ein Unternehmen, das ein US-Sprachmodell nutzt, damit nachtrainiert und es dann als Steuerberatungs-Tool anbietet, wird selbst zum „Provider" – und muss plötzlich offenlegen, welche Trainingsdaten es nutzte. Nur: Das weiss es selbst nicht, weil es auf OpenAI-Modellen aufbaut. Das schafft Rechtsunsicherheit und zwingt zum Handeln – genau das ist beabsichtigt.
Doch in tragischen Fällen wie Teenager-Suizide nach Chatbot-Interaktionen zeigt sich, wie dünn die Haftung wird. Das Kind trug Eigenverantwortung, der Konzern versteckt sich hinter AGB-Haftungsausschlüssen, und am Ende können Eltern nur Beerdigungskosten fordern.
Urheberrecht: Der Zug ist abgefahren
Ein besonders scharfer Punkt: Grosse Sprachmodelle wurden mit Millionen urheberrechtlich geschützten Werken trainiert – vermutlich illegal. Doch niemand will OpenAI „den Stecker ziehen", weil Wettbewerbsfähigkeit das höhere Gut ist. Burmeier ist ungeschminkt: Das Recht war bereits verletzt, aber es wird nicht durchgesetzt. Kennzeichnungspflichten für KI-generierte Inhalte könnten helfen, ändern aber nichts an der Kernfrage, warum Künstler nicht vergütet werden.
Kernaussagen
Regulierung allein reicht nicht: Der AI-Act ist gut konzipiert, aber ohne Durchsetzung wertlos. Europa braucht nicht mehr Paragraphen, sondern mehr Bite.
Marktmacht statt Moral: Unternehmen halten sich an EU-Regeln, weil sie mit EU-Kunden Geld verdienen wollen – nicht aus ethischen Gründen.
Gesichtserkennung ist das zentrale Risiko: Massenüberwachung im öffentlichen Raum ist eine totalitäre Machttechnik. Der AI-Act regelt das zu schwach.
Autonome Waffensysteme sind eine Rote Linie: Selbstständige militärische KI-Entscheidungen dürfen nicht existieren – das fordert menschliche Kontrolle.
Urheberrecht wurde verletzt, bleibt aber ungeahndet: KI-Training auf geklauten Werken war und ist rechtswidrig. Mangelnde Durchsetzung führt zu kulturellem und wirtschaftlichem Schaden für Kreative.
Kritische Fragen
1. Evidenz/Datenqualität: Wie aussagekräftig ist die Statistik, dass 90 % der KI-Systeme „völlig unproblematisch" sind? Wer hat diese Zahl ermittelt und nach welchen Kriterien?
2. Interessenkonflikte: Die EU fördert technologische Wettbewerbsfähigkeit einerseits, reguliert andererseits. Wie kann sie gleichzeitig OpenAI schützen und zur Verantwortung ziehen?
3. Kausalität/Alternativen: Führen strenge Regulierung tatsächlich zum Exodus von Startups, oder sind Finanzierung und Ökosystem die echten Bremsen – wie Burmeier argumentiert?
4. Umsetzbarkeit/Risiken: Wenn chinesische und US-Firmen die EU-Regeln ignorieren und keine Sanktionen fürchten müssen, warum sollten europäische Startups sich dann an compliance halten?
5. Grenzfälle: Ab wann wird ein IT-System mit „ein bisschen Glitzerzauber" durch ein Sprachmodell selbst zum KI-System mit allen regulatorischen Konsequenzen – und wer entscheidet das?
6. Durchsetzung im multilateralen Kontext: Wie kann die EU chinesische Gesichtserkennung oder russische Desinformation-KI sanktionieren, wenn diese Länder europäische Urteile ignorieren?
7. Kultureller Schaden: Verliert Europa seine Kreativwirtschaft, wenn KI-Training ohne Vergütung legal bleibt – und sollte das ein Grund für schärfere Gesetze sein oder für mehr Durchsetzung bestehender Urheberrechte?
8. Militärische KI: Warum schliesst der AI-Act autonome Waffensysteme von vornherein aus, anstatt sie zu regulieren – ist ein Verbot nicht ehrlicher und durchsetzbarer?
Weitere Meldungen
- Rechtsgeschichte zeigt Flexibilität: Das Bundesverfassungsgericht erfand 1983 das Grundrecht auf „informationelle Selbstbestimmung" – nicht im Grundgesetz vorhanden, aber abgeleitet aus Artikel 1 und 2. Das zeigt, dass Gerichte Recht weiterdenken können, ohne dass neue Gesetze nötig sind.
Quellenverzeichnis
Primärquelle: [KI und Jetzt – Episode mit Ulf Burmeier] – https://storage01.sr.de/podcast/SR3_KUJ_P/SR3_KUJ_P_41533_20260213_164103.MP3
Beteiligte Organisationen:
- Saarländischer Rundfunk (SR)
- Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI)
- Gesellschaft für Freiheitsrechte (GFF)
Verifizierungsstatus: ✓ 2026-02-20
Dieser Text wurde mit Unterstützung eines KI-Modells erstellt. Redaktionelle Verantwortung: clarus.news | Faktenprüfung: 2026-02-20