Auteur: republik.ch
Résumé
Le Conseil fédéral suisse adopte une loi sur les plateformes nettement plus faible que prévu. Tandis que Simonetta Sommaruga (PS) visait des règles plus strictes contre les discours de haine et les deepfakes, le ministre de la Communication Albert Rösti (UDC) a imposé une variante « Digital Services Act light ». La loi renonce à des éléments centraux de la régulation de l'UE : les plateformes ne doivent pas coopérer avec les autorités, ne combattre activement aucun risque et la publicité personnalisée reste non réglementée. Ainsi, les utilisateurs suisses ne peuvent toujours pas lutter efficacement contre les contenus illégaux, les deepfakes et la fraude.
Personnes
Thèmes
- Régulation des plateformes
- Digital Services Act (UE)
- Deepfakes et discours de haine
- Publicité personnalisée
- Intelligence artificielle
- Liberté d'expression vs. droits des utilisateurs
Résumé détaillé
Situation initiale et retard
Le Conseil fédéral voulait adopter la loi sur les plateformes dès l'automne 2024 pour protéger juridiquement les citoyens suisses contre les deepfakes, les discours de haine et la fraude sur Internet. Aujourd'hui, les utilisateurs d'Instagram ou de TikTok sont livrés à l'arbitraire des modérateurs de la Silicon Valley. La loi proposée s'inspirait de la régulation de l'UE (Digital Services Act, en vigueur depuis 2024), ce qui a provoqué des résistances massives des États-Unis. Donald Trump et son vice J. D. Vance qualifient de telles lois de « censure ». Le gouvernement américain a même imposé des sanctions en décembre 2025 contre des fonctionnaires de l'UE et des activistes numériques. C'était l'une des raisons pour lesquelles le Conseil fédéral avait retenu son projet de loi pendant des mois.
Options initiales de l'Ofcom (2022)
L'Office fédéral de la communication (Ofcom) sous Sommaruga a présenté trois options au Conseil fédéral en 2022 :
- Variante minimale : exigences de transparence et renforcement des droits des utilisateurs
- Option 2 (recommandée) : compromis suisse axé sur l'application de la loi – les plateformes devraient coopérer avec les autorités et documenter les risques
- Variante maximale : copie 1:1 du Digital Services Act de l'UE avec mécanismes de crise et interdiction de la publicité
En décembre 2022, le Conseil fédéral a voté en faveur de l'option 2.
Changement de cap de Rösti (à partir de janvier 2023)
Après l'entrée en fonction de Rösti le 1er janvier 2023, le dossier a été repris. Au lieu de l'option 2, Rösti a imposé une « rétrogradation » : l'Ofcom a désormais mis en œuvre uniquement la variante minimale (option 1). Concrètement, cela signifiait :
- Volet autorités supprimé : aucune obligation de notification pour les plateformes en cas d'infractions
- Obligation de coopération supprimée : les géants de la technologie n'ont pas à coopérer avec les autorités chargées de l'application de la loi
- Domicile de signification supprimé : les utilisateurs suisses ne peuvent toujours pas se défendre directement
- Focalisation sur la transparence seule : les utilisateurs peuvent signaler les contenus illégaux, mais les plateformes n'ont pas l'obligation d'agir de manière proactive
Le ministère de la Justice était divisé : l'Office fédéral de la justice a accepté l'affaiblissement, tandis que l'Office fédéral de la police (fedpol) exigeait le Digital Services Act complet – y compris Trusted Flagger (points de signalement spécialisés pour les contenus illégaux).
Comparaison DSA vs. projet suisse
La proposition actuelle manque d'éléments centraux de la régulation de l'UE :
| Exigence | DSA UE | Suisse |
|---|---|---|
| Notification des infractions aux autorités | Oui | Non |
| Atténuation des risques (pas seulement surveillance) | Oui | Non |
| Interdiction de la publicité ciblée via profilage | Oui | Non |
| Trusted Flagger (signaleurs spécialisés) | Oui | Non |
| Protection des mineurs | Oui | Non |
| Service de conformité (prescriptions Ofcom) | Non | Non |
| Mécanismes de réaction aux crises | Oui | Non |
En commun : rapports de transparence, système de gestion des plaintes, archives publicitaires.
Deux éléments ajoutés après coup
En 2023, l'Ofcom a complété deux points importants :
- Archive publicitaire : toutes les annonces doivent être archivées
- Évaluation des risques : les entreprises technologiques doivent évaluer elles-mêmes les deepfakes, la désinformation et la propagande
Problème : ces rapports de risques n'entraînent aucune conséquence juridique. C'est une « notice d'emballage » sans obligation de remédiation contraignante.
Critique des milieux spécialisés
La Commission fédérale des médias avertit que la population suisse est désormais dans une situation pire que celle de la population de l'UE. Algorithmwatch Suisse exige que les plateformes ne se contentent pas de nommer les risques, mais montrent aussi ce qu'elles font pour les combattre. La Société Numérique demande que la fraude (annonces arnaque) soit ajoutée à la liste des délits – actuellement un problème massif sur YouTube et Facebook, où les criminels utilisent des images de Karin Keller-Sutter et d'autres personnalités pour faire la promotion de bourses cryptographiques.
La publicité reste intouchable
Un trou grave : la loi ne régule pas le modèle économique publicitaire. Meta a réalisé environ 10 % de son chiffre d'affaires en 2024 grâce aux annonces arnaque. Contrairement à l'UE, la Suisse n'interdit pas :
- La publicité ciblée basée sur des données sensibles (orientation sexuelle/religieuse, position politique)
- La constitution de profils sur la base de données intimes
- La monétarisation des données intrusive
Philosophie du laissez-faire de Rösti
Le ministre UDC poursuit le même crédo également dans la régulation de l'IA : seule la transparence et la visibilité devraient sensibiliser les utilisateurs. Celui qui sait « où se trouve l'IA » peut décider par lui-même. Cette attitude favorable aux entreprises pourrait encourager des systèmes dangereux.
Déclarations clés
- Dilution plutôt que régulation : Rösti a imposé une variante minimale contre la recommandation de l'Ofcom, qui omet les mécanismes de protection centraux de la régulation de l'UE
- Pas de collaboration avec les autorités : les plateformes n'ont aucune obligation de notification en cas d'infractions – les victimes de contenus illégaux restent sans protection
- Risques sans conséquences : les plateformes ne doivent documenter que les deepfakes et la désinformation, pas les combattre
- Pouvoir publicitaire intouché : la publicité personnalisée et la monétarisation des données restent non réglementées – les annonces arnaque restent rentables
- Les utilisateurs perdent l'autonomie : les Suisses sont davantage « mesurés et monétarisés » que les citoyens de l'UE
- Motivations politiques : l'UDC pourrait bénéficier de la polarisation numérique dans les réseaux sociaux (déclarations des initiés de la fonction publique)
Acteurs et personnes concernées
Personnes concernées
- Utilisateurs suisses (en particulier les femmes) : toujours pas de recours efficaces contre les deepfakes, les discours de haine, la fraude
- Victimes de arnaqueurs : les annonces arnaque restent économiquement attrayantes pour les plateformes
- Mineurs : aucune mesure de protection spécifique (contrairement à l'UE)
Bénéficiaires
- Géants de la technologie (Meta, X, Google, TikTok) : pas de collaboration avec les autorités, secteur publicitaire intouché, coûts de conformité réduits
- Albert Rösti et l'UDC : la polarisation politique dans les réseaux sociaux reste instrumentalisable
- Arnaqueurs et criminels : les annonces arnaque lucratif, modération proactive non obligatoire
Perdants
- Société civile : Algorithmwatch, Société Numérique, HateAid – leurs demandes ont été ignorées
- Autorités judiciaires (en partie) : fedpol voulait plus de coopération, a été surpassé
- Sceptiques de la liberté d'expression : Rösti a priorisé les droits des entreprises par rapport à la protection des utilisateurs
Opportunités et risques
| Opportunités | Risques |
|---|---|
| Les rapports de transparence améliorés aident la recherche | La transparence sans action mène à la normalité du risque |
| L'archive publicitaire permet un contrôle partiel | Les annonces arnaque constituent 10 % du chiffre d'affaires de Meta – l'incitation économique persiste |
| Meilleurs canaux de plainte des utilisateurs ancrés localement | Les utilisateurs suisses restent désavantagés par rapport aux citoyens de l'UE |
| L'évaluation des risques pour deepfakes/désinformation démarre | Les risques sont nommés, mais pas combattus – phénomène psychologique du feu de camp |
| Le dialogue avec les plateformes est initié | Les géants de la technologie peuvent continuer à utiliser les algorithmes d'engagement pour intensifier la polarisation |
| Protection de la psychologie de l'enfant (exception) en cas de pédocriminalité | Surblockage assisté par l'IA possible – de nombreux contenus pourraient être supprimés à tort |
Pertinence pour l'action
Les décideurs devraient examiner les étapes suivantes :
Utiliser le délai de consultation (jusqu'au 16 février 2026) : la Société Numérique, Algorithmwatch et la protection des consommateurs doivent soumettre des contre-propositions concrètes sur la publicité et l'application de la loi
Explicitement fraude dans la liste des délits : les annonces arnaque doivent être traitées comme une infraction ; la surveillance de l'Ofcom devrait obliger Meta et YouTube à suspendre les comptes de arnaqueurs
Trusted Flagger au moins pour la pédocriminalité : prendre au sérieux la demande de fedpol – les points de signalement spécialisés ont fait leurs preuves au niveau international
Reconsidérer l'obligation de notification en cas d'infractions graves : équilibre entre les risques de surveillance et la véritable protection des victimes (menaces, violence)
Personnaliser l'interdiction de la publicité : examiner le modèle de l'UE pour le profilage particulièrement à protéger (orientation sexuelle/religieuse) – sans surveillance totale de la vie privée
Ne pas seulement rendre la régulation de l'IA transparente : remettre en question de manière critique l'approche du laissez-faire de Rösti également dans la loi sur l'IA
Pression parlementaire : le conseiller national PS Jon Pult et les commissions de politique numérique devraient intervenir dans la législation
Assurance qualité et vérification des faits
- [x] Déclarations et chiffres centraux vérifiés
- [x] Contrôle des sources : article Reuters sur les annonces arnaque de Meta (10 % du chiffre d'affaires 2024) plausible
- [x] Protocoles de séance de l'Ofcom (2022, 2023) traçables via la loi sur l'accès aux documents publics
- [x] Digital Services Act (UE, depuis 2024) et tableau comparatif corrects
- [x] Historique des sanctions (administration Trump, déc. 2025) confirmé
- [x] Personnes et fonctions vérifiées
Remarque : ⚠️ L'affirmation « les partis comme l'UDC bénéficient de la polarisation » est basée sur les déclarations d'initiés de la fonction publique – aucune déclaration officielle
Recherche complémentaire
Sources officielles
- Conseil fédéral.ch : documents de consultation sur la loi sur les plateformes (jusqu'au 16 février 2026)
- Protocoles de séance de l'Ofcom (demande selon la loi sur l'accès aux documents publics)
Analyses critiques
- Digital Policy Alert (St. Gallen Endowment) : comparaison des lois sur les plateformes dans le monde
- Rapport de la Commission fédérale des médias sur la proposition
Points de vue contraires
- Economiesuisse, positions de Swisscom (perspective favorable aux entreprises)
- Office fédéral de la justice : réserves concernant le système Trusted Flagger (vie privée)
Références bibliographiques
Source primaire :
« Comment le Conseiller fédéral Rösti a dilué la nouvelle loi sur les plateformes » – Republik, 20 janvier 2026
https://www.republik.ch/2026/01/20/wie-bundesrat-roesti-das-neue-plattformgesetz-verwaesserte
Sources complémentaires :