Kurzfassung
Angela Müller, Geschäftsleiterin von AlgorithmWatch Schweiz, argumentiert in einem SRF-Tagesgespräch, dass Deepfakes nicht das eigentliche Problem darstellen, sondern ein Symptom gesellschaftlicher Missstände wie Sexismus und Frauenfeindlichkeit. Die Technologie ermöglicht es, sexualisierte Gewalt, Identitätsmissbrauch und Betrügereien auf Knopfdruck umzusetzen. Der Bundesrat hat eine Regulierung von Kommunikationsplattformen in die Wege geleitet, die nach Müller jedoch zu milde ausfällt und generative KI-Anwendungen nicht ausreichend adressiert.
Personen
- Angela Müller (Geschäftsleiterin AlgorithmWatch Schweiz)
- David Karasek (Moderator SRF)
Themen
- Deepfake-Technologie
- Sexualisierte Gewalt im Netz
- Plattformregulierung
- Künstliche Intelligenz und Gesellschaft
- Cyberkriminalität
Clarus Lead
Das zentrale Spannungsfeld liegt in der politischen Reaktion: Während Bundesrätin Karin Keller-Sutter und mehrere Influencerinnen in der Schweiz Opfer von Deepfake-Pornografie wurden, kritisiert Müller die geplante Regulierung als unzureichend. Sie zielt primär auf Inhaltsverbreitung durch Plattformen ab, erfasst aber nicht die integrierten KI-Tools, mit denen Nutzer direkt Deepfakes erstellen und verteilen können. Dies offenbart eine Regulierungslücke, die mit zunehmender technologischer Konvergenz wächst.
Detaillierte Zusammenfassung
Müller betont, dass sexualisierte Deepfakes kein neues Phänomen darstellen – sexualisierte Gewalt existiere seit langem. Die Technologie verkürze jedoch die Hemmschwelle radikal: Aus einem harmlosen Foto entstehe mittels KI-Programm in Sekunden ein pornografisches Bild, verbreitet auf Millisekunden-Ebene in globalen Netzwerken. Besonders brutal sei für Betroffene die Machtlosigkeit bei der Löschung; einmal hochgeladen, entstehe das Material ein Eigenleben, das faktisch nicht zu stoppen sei.
Bei den Akteuren identifiziert Müller ein mehrstufiges Verantwortungssystem: Täter nutzen spezialisierte Apps (teilweise mit dem Slogan „Mit uns kannst du jede Person ausziehen"), App-Stores vertreiben diese, und Social-Media-Plattformen sowie Suchmaschinen amplifizierten die Verbreitung. Jüngst verschwimme diese Grenze – Plattformen bauten KI-Generatoren direkt ein. Die geplante Schweizer Regulierung fokussiere auf Verbreitungsplattformen, nicht auf generative Tools. Das sei strategisch unzureichend angesichts zunehmend integrierter Ökosysteme.
Müller lehnt deterministische Argumente ab: Regulierung sei nicht unmöglich, weil Technologie grenzlos sei – wie bei organisierter Kriminalität gelte: Umsetzungshürden rechtfertigen nicht die Unterlassung von Gesetzen. Ein Ansatz sei, App-Stores zu verpflichten, solche Anwendungen nicht anzubieten. Die EU-Regulierung könne der Schweiz als Benchmark dienen.
Kernaussagen
- Deepfakes sind Katalysator bestehender gesellschaftlicher Missstände (Sexismus, sexualisierte Gewalt), nicht deren Ursache
- Die geplante Schweizer Plattformregulierung erfasst nicht integrierte KI-Generatoren und droht damit zu scheitern
- Multi-Level-Verantwortung verteilt sich auf App-Entwickler, App-Stores, Plattformen und Nutzer – alle müssen in Pflicht genommen werden
Kritische Fragen
Evidenz: Müller behauptet, Deepfake-Pornografie sei ein „Riesenproblem" – liegen quantitative Daten zur Prevalenz in der Schweiz vor, oder handelt es sich um qualitative Beobachtungen?
Interessenkonflikt: Inwiefern könnte AlgorithmWatch als NGO mit Advocacy-Mandate ein Interesse daran haben, die Bedrohung durch KI zu maximieren, um Regulierungsmassnahmen zu rechtfertigen?
Kausalität: Müller trennt Technologie von Sexismus. Aber könnte nicht umgekehrt eine Technologie – wenn sie Hemmschwellen senkt – auch neue Täter aktivieren, die ohne sie nicht aktiv würden (Aktivierungseffekt statt nur Katalysator)?
Umsetzbarkeit: Wie realistisch ist es, dass App-Stores in der Schweiz solche Apps blockieren, wenn Nutzer über Web-Zugang oder Sideloading ausweichen können? Wo liegt die praktische Durchsetzungsgrenze?
Alternative Regelung: Müller kritisiert die Schweizer Regulierung als zu schwach. Aber könnte ein Fokus auf Verschärfung von Strafrecht (z.B. neuer Artikel zu nicht-konsensualen Deepfakes) nicht wirksamer sein als Plattform-Compliance, die international kaum durchzusetzen ist?
Gesamtgesellschaftliche Antwort: Müller fordert Prävention und „Normalisierungsabbau" – wie sollen diese konkret operationalisiert werden? Curricula? Kampagnen? Wer trägt die Kosten und Verantwortung?
Quellenverzeichnis
Primärquelle: Tagesgespraech_radio_AUDI20260428_NR_0022 – SRF Audio (download-media.srf.ch)
Verifizierungsstatus: ✓ 2026-04-28
Dieser Text wurde mit Unterstützung eines KI-Modells erstellt. Redaktionelle Verantwortung: clarus.news | Faktenprüfung: 2026-04-28