Auteur : clarus.news Source : clarus.news

Mode rédactionnel : CLARUS_ANALYSIS Recommandation d'indexation : INDEX Langue/Rôle : FULL_ANALYSIS Date de vérification des faits : 2026-04-28

Résumé court

Angela Müller, directrice générale d'AlgorithmWatch Suisse, soutient dans une conversation radiophonique de la RTS que les deepfakes ne constituent pas le problème réel, mais un symptôme de dysfonctionnements sociétaux tels que le sexisme et la misogynie. La technologie permet de mettre en œuvre la violence sexualisée, l'usurpation d'identité et la fraude en un clic. Le Conseil fédéral a lancé une régulation des plateformes de communication, qui selon Müller est cependant trop faible et n'aborde pas suffisamment les applications d'IA générative.

Personnes

  • Angela Müller (directrice générale AlgorithmWatch Suisse)
  • David Karasek (animateur RTS)

Thèmes

  • Technologie des deepfakes
  • Violence sexualisée en ligne
  • Régulation des plateformes
  • Intelligence artificielle et société
  • Cybercriminalité

Lead Clarus

Le point de tension central réside dans la réaction politique : alors que la conseillère fédérale Karin Keller-Sutter et plusieurs influenceuses en Suisse ont été victimes de pornographie deepfake, Müller critique la régulation prévue comme insuffisante. Elle vise principalement la distribution de contenu par les plateformes, mais ne couvre pas les outils d'IA intégrés avec lesquels les utilisateurs peuvent directement créer et diffuser des deepfakes. Cela révèle une lacune réglementaire qui s'élargit avec la convergence technologique croissante.

Résumé détaillé

Müller souligne que les deepfakes sexualisés ne sont pas un phénomène nouveau – la violence sexualisée existe depuis longtemps. La technologie réduit cependant radicalement les inhibitions : une photo anodine se transforme en quelques secondes en image pornographique via un programme d'IA, diffusée à l'échelle des millisecondes dans les réseaux mondiaux. Ce qui est particulièrement brutal pour les victimes, c'est l'impuissance face à la suppression ; une fois téléchargé, le matériel prend sa propre vie, qui est pratiquement impossible à arrêter.

En identifiant les acteurs, Müller relève un système de responsabilité multiniveaux : les auteurs utilisent des applications spécialisées (certaines avec le slogan « Avec nous, vous pouvez déshabiller n'importe qui »), les app stores les distribuent, et les plateformes de médias sociaux ainsi que les moteurs de recherche amplifient la diffusion. Récemment, cette limite s'estompe – les plateformes intègrent directement les générateurs d'IA. La régulation suisse prévue se concentre sur les plateformes de distribution, non sur les outils génératifs. C'est stratégiquement insuffisant face aux écosystèmes de plus en plus intégrés.

Müller rejette les arguments déterministes : la régulation n'est pas impossible parce que la technologie est sans limites – comme pour la criminalité organisée : les obstacles à la mise en œuvre ne justifient pas l'omission de lois. Une approche consisterait à obliger les app stores à ne pas proposer de telles applications. La régulation de l'UE pourrait servir de référence à la Suisse.

Déclarations clés

  • Les deepfakes sont un catalyseur des dysfonctionnements sociétaux existants (sexisme, violence sexualisée), non leur cause
  • La régulation suisse prévue des plateformes ne couvre pas les générateurs d'IA intégrés et risque ainsi d'échouer
  • La responsabilité multiniveaux est distribuée entre les développeurs d'applications, les app stores, les plateformes et les utilisateurs – tous doivent être tenus responsables

Questions critiques

  1. Preuves : Müller affirme que la pornographie deepfake est un « énorme problème » – dispose-t-on de données quantitatives sur la prévalence en Suisse, ou s'agit-il d'observations qualitatives ?

  2. Conflit d'intérêts : Dans quelle mesure AlgorithmWatch, en tant qu'ONG avec un mandat de plaidoyer, pourrait-elle avoir intérêt à maximiser la menace posée par l'IA pour justifier des mesures de régulation ?

  3. Causalité : Müller sépare la technologie du sexisme. Mais n'est-il pas possible qu'inversement, une technologie – en abaissant les inhibitions – puisse aussi activer de nouveaux auteurs qui ne seraient pas actifs sans elle (effet d'activation plutôt que simple catalyseur) ?

  4. Faisabilité : Quel est le réalisme d'une interdiction par les app stores suisses de telles applications si les utilisateurs peuvent contourner le problème via un accès web ou un chargement latéral ? Où se situe la limite pratique de la mise en œuvre ?

  5. Réglementation alternative : Müller critique la régulation suisse comme trop faible. Mais un accent mis sur le renforcement du droit pénal (par exemple, un nouvel article sur les deepfakes non consentis) ne pourrait-il pas être plus efficace que la conformité des plateformes, qui est à peine applicable au niveau international ?

  6. Réponse sociétale globale : Müller réclame la prévention et la « dénormalisation » – comment ces éléments doivent-ils être concrètement opérationnalisés ? Programmes scolaires ? Campagnes ? Qui en supporte les coûts et la responsabilité ?


Références bibliographiques

Source primaire : Tagesgespraech_radio_AUDI20260428_NR_0022 – SRF Audio (download-media.srf.ch)

Statut de vérification : ✓ 2026-04-28


Ce texte a été créé avec l'aide d'un modèle d'IA. Responsabilité éditoriale : clarus.news | Vérification des faits : 2026-04-28