Réglementation de l'IA en Suisse : voie médiane sur infrastructure américaine
clarus.news | Analyse | 21 avril 2026
L'affaire Grok impliquant la conseillère fédérale Karin Keller-Sutter a déclenché un débat réglementaire qui était depuis longtemps nécessaire : qui est responsable lorsque l'intelligence artificielle dérape – l'utilisateur, la plateforme ou le fournisseur ? Alors que Bruxelles durcit le ton à partir d'août 2026 avec l'AI Act complet et que l'Allemagne a adopté le 11 février 2026 la loi sur la surveillance du marché et la promotion de l'innovation en IA, le Conseil fédéral prépare tranquillement un projet de consultation d'ici fin 2026. Entre-temps, Copilot fonctionne par défaut sur 54'000 postes de travail Microsoft 365 fraîchement déployés dans l'administration fédérale – et le développement interne Gov-GPT est basé sur Llama de Meta. La Suisse réglemente l'IA dont elle ne contrôle plus l'infrastructure depuis longtemps.
L'affaire Grok : utilisateur, plateforme ou fournisseur ?
Le cas est bien documenté, la lacune juridique ne l'est pas : le 10 mars 2026, un retraité de 75 ans a incité le chatbot Grok d'Elon Musk sur X à tenir des propos vulgaires et sexistes contre la ministre des Finances. Keller-Sutter a déposé une plainte pénale pour diffamation et injure contre inconnu – explicitement dans l'intention de faire examiner la responsabilité de l'utilisateur, de l'exploitant et de la plateforme. La professeure de droit pénal Monika Simmler de l'Université de Saint-Gall voit de bonnes chances de poursuivre l'utilisateur : l'IA est un outil, pas une excuse. Une coresponsabilité de la plateforme ne peut cependant être prouvée que si l'on peut démontrer que les exploitants ont accepté en connaissance de cause la violation du droit.
Politiquement, l'éventail des réactions est remarquable. La co-présidente du PLR Susanne Vincenz-Stauffacher qualifie la question de l'attribution d'un test pour l'État de droit dans l'espace numérique. Le conseiller national des Verts Gerhard Andrey – connu comme défenseur de la souveraineté numérique – décrit Grok comme « un outil d'IA grotesque qui attise la société comme un accélérateur d'incendie ». Le conseiller national UDC Roland Rino Büchel considère en revanche la plainte comme excessive : si quelqu'un commet un meurtre avec un couteau, ce n'est pas pour autant le fabricant du couteau qui est coupable. Cette analogie passe à côté du point – un couteau ne rédige pas d'injures de manière autonome.
La voie médiane du Conseil fédéral : Convention sur l'IA au lieu d'AI Act
Le 12 février 2025, le Conseil fédéral avait fixé ses orientations réglementaires – sur la base de l'état des lieux de l'OFCOM qui examinait trois approches : adoption complète de l'AI Act de l'UE, ratification de la Convention du Conseil de l'Europe sur l'IA, ou poursuite de la réglementation sectorielle. La variante médiane a été choisie dans sa sous-variante moins poussée : ratification de la Convention avec des exigences primaires pour l'État, le secteur privé reste largement non réglementé. Le DFJP et le DETEC doivent élaborer d'ici fin 2026 un projet de consultation et un plan de mesures – la législation proprement dite ne suivra qu'en 2027 au plus tôt.
AlgorithmWatch Suisse critique cette décision comme « timide et peu visionnaire » : les intérêts économiques priment sur ceux de la population, la question des ressources est occultée, le calendrier n'est pas à la hauteur des défis. Economiesuisse salue justement cette retenue : de nombreuses lois suisses sont déjà « prêtes pour l'IA », les interventions réglementaires devraient rester ponctuelles. Le Conseil fédéral se positionne ainsi entre l'harmonisation européenne – qui exerce de toute façon une pression via l'accord Suisse-UE de reconnaissance mutuelle des évaluations de conformité (ARM) – et l'auto-limitation de politique économique.
Bruxelles, Berlin, Paris : le rythme des autres
Le contraste avec la zone euro est saisissant. Le règlement UE 2024/1689 s'applique intégralement à partir du 2 août 2026, à l'exception de quelques dispositions ; les règles pour l'IA à haut risque entrent en vigueur à cette date, celles pour les systèmes intégrés à partir d'août 2027. L'Allemagne a adopté le 11 février 2026 la loi sur la surveillance du marché et la promotion de l'innovation en IA (KI-MIG) – l'Agence fédérale des réseaux assume la supervision centrale, un service d'assistance IA et des laboratoires réels flanquent la mise en œuvre. La France mise parallèlement sur la politique industrielle : l'offensive de 109 milliards de Macron, le centre de calcul Mistral près de Paris avec démarrage opérationnel fin juin 2026, une IA administrative commune franco-allemande avec SAP et Mistral.
La Suisse a en revanche organisé le 27 octobre 2025 une « journée de travail participative » avec environ 60 représentants de groupes d'intérêts à l'Office fédéral de la justice. La synthèse était marquée par des termes comme « réglementation mesurée », « transparence » et « équité ». Le projet de consultation n'arrive – si tout va selon le plan – qu'au moment où l'AI Act de l'UE est déjà en application complète depuis deux ans. La Suisse ne sera pas créatrice de règles, mais receveuse de règles – sans siéger à la table de négociation.
La véritable contradiction : souveraineté sur une pile technologique américaine
L'ironie la plus cruelle ne réside pas dans le rythme de réglementation, mais dans l'infrastructure sur laquelle se déroule le débat suisse sur l'IA. Fin 2025, la Confédération a achevé le déploiement de Microsoft 365 sur environ 54'000 postes de travail – y compris les unités récemment converties du DDPS et du PFPDT. Microsoft active l'assistant IA Copilot par défaut pour tous les utilisateurs sous licence, y compris pour l'administration fédérale. Formations à l'utilisation de Copilot : aucune. Accord politique avant l'activation : aucun. La révision interne du DFAE a en outre constaté que le dispositif technique censé empêcher le téléchargement de documents classifiés dans le cloud ne fonctionne « actuellement que partiellement ».
L'expérience gouvernementale interne Gov-GPT, qui est à disposition des conseillers fédéraux et des hauts fonctionnaires depuis novembre 2024 dans un environnement OFIT cloisonné, s'appuie sur le modèle linguistique Llama 3 de Meta – un modèle open source d'un groupe américain. Le modèle phare suisse Apertus développé en parallèle par l'EPFZ, l'EPFL et le CSCS est utilisé par son partenaire stratégique Swisscom principalement « en interne et à des fins de test ». Pour les produits destinés aux clients finaux, Swisscom mise plutôt sur Claude d'Anthropic et des variantes d'OpenAI – car, selon la justification officielle, aucun modèle suisse ne remplit actuellement les exigences d'un produit de consommation de cette envergure. Le chancelier de la Confédération Viktor Rossi avait décrit la situation sans détour aux Swiss Cyber Security Days en février 2026 : l'administration fédérale dépend de fournisseurs externes et de grandes entreprises étrangères.
Le revirement du 18 avril
C'est précisément là que quelque chose bouge. La NZZ a rapporté le 18 avril 2026 que, selon ses recherches, la Confédération vise une réduction progressive et à long terme de la dépendance à Microsoft – seulement quelques mois après l'achèvement du déploiement de Microsoft 365. L'étude de faisabilité sur les alternatives open source que mène le projet BOSS sous la direction de la Chancellerie fédérale et de l'OFIT doit livrer des recommandations d'ici mi-2026. openDesk du centre allemand pour la souveraineté numérique (ZenDiS) est testé. Le Schleswig-Holstein a déjà complètement basculé ; le délégué suisse à la transformation numérique Daniel Markwalder est en échange direct avec le Land.
Mais la contradiction structurelle demeure : la Suisse réglemente les fournisseurs d'IA qui contrôlent son infrastructure. Elle discute de responsabilité des plateformes, alors que les plateformes relèvent du droit américain. Elle développe Gov-GPT sur le modèle d'un groupe contre l'IA duquel la conseillère fédérale Keller-Sutter vient justement de déposer plainte. Et elle prend son temps jusqu'à fin 2026 pour un projet de consultation – pendant que Mistral à Paris, openDesk à Berlin et l'AI Act à Bruxelles sont déjà une réalité.
Conclusion : le mauvais rythme pour la bonne question
Le Conseil fédéral a choisi la voie médiane – neutre technologiquement, basée sur des principes, favorable à l'économie. C'est défendable, tant que la question est principalement : comment la Suisse réglemente-t-elle le secteur privé ? Mais la question que soulève l'affaire Grok va plus loin : comment un petit État fait-il appliquer le droit face à des plateformes dont le chancelier de la Confédération qualifie publiquement les contrats cloud de dépendance ?
La France répond par la politique industrielle et une DINUM forte en application. L'Allemagne avec le KI-MIG et une Agence fédérale des réseaux centrale. L'UE avec 450 millions de consommateurs comme levier. La Suisse répond par des journées de travail, des études de faisabilité et un calendrier qui sous-estime deux fois le cycle de développement technologique. Gerhard Andrey a montré en décembre 2025 avec le conseiller aux États UDC Werner Salzmann que la force d'application parlementaire existe. Ce qui manque, c'est un exécutif qui l'utilise.
La réglementation de l'IA n'est pas le véritable problème. Le problème est de ne pas posséder l'infrastructure pour cela.
Messages clés
- Lacune de responsabilité : L'affaire Grok-Keller-Sutter devient un cas test pour savoir si le droit suisse peut poursuivre utilisateurs, exploitants de plateformes et fournisseurs d'IA – la jurisprudence n'existe pas encore.
- Écart de rythme : Le Conseil fédéral prévoit une consultation d'ici fin 2026 ; l'AI Act de l'UE s'applique intégralement dès août 2026 ; l'Allemagne a déjà adopté la loi de mise en œuvre en février 2026.
- Contradiction structurelle : La réglementation suisse de l'IA naît sur 54'000 postes de travail Microsoft 365 nouvellement déployés avec Copilot activé et un Gov-GPT basé sur Meta-Llama.
- Revirement de souveraineté : Selon les recherches de la NZZ du 18 avril 2026, la Confédération vise la réduction progressive de la dépendance à Microsoft – quelques mois après l'achèvement du déploiement.
- Dilemme Swisscom : Le partenaire stratégique d'Apertus mise sur Anthropic et OpenAI dans les produits destinés aux clients finaux, car Apertus « ne remplit pas intégralement les exigences ».
Questions critiques
(a) Évidence : Quelles données fiables existent sur la fréquence et l'ampleur avec lesquelles des documents fédéraux classifiés ont déjà atterri dans le cloud Microsoft, au-delà du dispositif DFAE qui ne fonctionne que partiellement ?
(a) Validité des sources : Dans quelle mesure la sélection des 60 participants à la journée de travail OFJ du 27 octobre 2025 était-elle représentative – les organisations de défense des droits fondamentaux et la société civile étaient-elles suffisamment représentées par rapport au lobby technologique ?
(b) Conflit d'intérêts : Comment le cours réglementaire favorable à l'économie du Conseil fédéral s'accorde-t-il avec le souhait simultané de renforcer la souveraineté numérique – ne sont-ce pas principalement ces groupes américains dont la Confédération veut justement se détacher qui en profitent ?
(b) Indépendance : Dans quelle mesure une surveillance suisse de l'IA peut-elle travailler de manière indépendante si son propre environnement de travail (Microsoft 365 avec Copilot) fonctionne sur l'infrastructure du Cloud Act américain ?
(c) Causalité : L'harmonisation européenne conduit-elle réellement à une meilleure protection des droits fondamentaux, ou ne fait-elle que déplacer l'application vers un niveau sur lequel la Suisse n'a aucune influence ?
(c) Contre-hypothèse : Un déplacement de ressources des licences Microsoft (1,1 milliard CHF en dix ans) vers Apertus, openDesk et projets similaires serait-il structurellement plus efficace que tout projet de réglementation de l'IA ?
(d) Faisabilité : Comment la Suisse doit-elle faire appliquer la responsabilité des plateformes si les principaux fournisseurs d'IA n'ont pas de présence juridique en Suisse et que le droit américain revendique la priorité ?
(d) Effet secondaire : Si la Suisse prend du retard réglementairement jusqu'à fin 2026, alors que l'AI Act de l'UE s'applique déjà – la Suisse ne risque-t-elle pas justement ce désavantage d'accès au marché qu'elle voulait éviter avec la voie médiane ?
Bibliographie
Source primaire : Politbüro Podcast – « Intelligence artificielle et réglementation suisse », avril 2026
Sources complémentaires :
- Conseil fédéral : Communiqué de