Auteur : bk.admin.ch Source : bk.admin.ch
Auteur : Chancellerie fédérale (Domaine Transformation numérique et Direction des TIC)
Source : https://www.bk.admin.ch/bk/de/home/digitale-transformation-ikt-lenkung/bundesarchitektur/kuenstliche_intelligenz.html
Date de publication : 12 février 2025 (Arrêté du Conseil fédéral)
Date de consultation : Décembre 2025
Temps de lecture : env. 8–10 minutes
Résumé exécutif
La Suisse élabore pour la première fois un cadre réglementaire cohérent en matière d'IA, qui transpose la convention du Conseil de l'Europe et doit être finalisé d'ici fin 2026. En parallèle, l'administration fédérale modernise sa gouvernance de l'IA par le renforcement du réseau de compétences CNAI et des lignes directrices d'utilisation claires, afin de saisir les opportunités et de minimiser les risques (protection des données, discrimination, transparence). L'accent porte sur l'innovation façonnée plutôt que sur une politique d'interdiction – les engagements volontaires complétant les règles contraignantes.
Questions directrices critiques (Régulation et administration de l'IA)
Liberté et innovation :
L'approche réglementaire (transparence, protection des données, non-discrimination) favorisera-t-elle plutôt le développement de l'IA suisse ou le ralentira-t-elle par des obstacles de conformité similaires à ceux de l'UE ?Responsabilité :
Qui porte la responsabilité juridique en cas de décisions administratives fondées sur l'IA – l'autorité, l'exploitant ou le développeur ? Les directives actuelles mentionnent la « responsabilité humaine », mais des mécanismes juridiquement contraignants font encore défaut.Preuves et impacts :
Sur quelles bases empiriques les normes réglementaires prévues reposent-elles ? Comment éviter une surréglementation ?Conséquences économiques :
Les grandes entreprises technologiques établies en bénéficient-elles (coûts de conformité plus élevés comme barrière à l'entrée) ou les engagements volontaires flexibles favorisent-ils l'innovation des PME ?Compétitivité internationale :
Comment la Suisse synchronise-t-elle sa régulation de l'IA avec la Loi sur l'IA de l'UE pour éviter la fragmentation et les désavantages concurrentiels ?
Analyse de scénarios – Perspectives politiques en matière d'IA
| Horizon temporel | Développement attendu |
|---|---|
| Court terme (2025–2026) | Procédure de consultation sur la régulation de l'IA ; l'administration fédérale renforce ses compétences ; CNAI devient point de coordination central ; premiers projets pilotes dans les autorités (p. ex. chatbots, analyse de données). |
| Moyen terme (2027–2030) | Nouvelles lois sur l'IA entrent en vigueur ; l'économie privée adapte ses structures de conformité ; le secteur suisse de l'IA croît ou stagne selon la profondeur de la régulation ; la formation en éthique de l'IA et gouvernance devient standard dans l'administration. |
| Long terme (2031+) | L'IA est intégrée dans les processus administratifs centraux (aide à la décision, détection des risques) ; la Suisse se positionne comme « lieu de confiance » pour une IA sûre et transparente ; ou : les lacunes réglementaires entraînent des abus ou une délocalisation de l'innovation. |
Thème central et contexte
La Suisse agit actuellement sur deux niveaux parallèles : (1) régulation nationale de l'IA et (2) réformes administratives internes. Alors qu'il n'y avait jusqu'à présent pas de législation transversale sur l'IA, le Conseil fédéral poursuit maintenant une approche progressive et multi-niveaux : combiner les normes minimales contraignantes (régulation) avec des lignes directrices volontaires de bonnes pratiques (gouvernance et engagement volontaire). Cela reflète une attitude libérale et pragmatique : permettre l'innovation, mais atténuer les risques critiques (protection des données, non-discrimination, transparence) par des règles claires.
Principaux faits et chiffres
Jalons réglementaires
- 12 février 2025 : Le Conseil fédéral approuve une inventaire de l'IA et mandate trois départements (DFJP, DETEC, DFAE, SER) pour élaborer un projet de régulation.
- Délai : Avant-projet en consultation jusqu'à fin 2026 ; en parallèle, mesures non contraignantes (solutions sectorielles, engagements volontaires) jusqu'à fin 2026.
- Cadre de référence : Convention sur l'IA du Conseil de l'Europe (pas encore ratifiée, mais cadre d'orientation).
Gouvernance dans l'administration fédérale
CNAI (Réseau de compétences pour l'IA) :
- Point de coordination central ; à partir du 1er février 2026, transfert à la Chancellerie fédérale (BK-DTI).
- Offre un échange d'expériences, base de données de projets, terminologie en matière d'IA, outils d'aide.
Huit mesures de mise en œuvre (stratégie fédérale) pour le développement des compétences en IA dans les autorités.
Contenu de la régulation (prévue)
Quatre piliers selon la Convention du Conseil de l'Europe :
- Transparence : Divulgation de l'utilisation de l'IA et de son fonctionnement.
- Protection des données : Respect de la Loi fédérale sur la protection des données (LPD) et de normes similaires au RGPD.
- Non-discrimination : Contrôle des biais et des résultats discriminatoires.
- Supervision : Surveillance administrative et vérification de la conformité.
Lignes directrices et fiches d'information (déjà en vigueur)
- Lignes directrices générales sur l'IA pour la Confédération : Établissent un cadre d'orientation pour une utilisation responsable.
- Fiches d'information sur les outils d'IA générative : Soutiennent les collaborateurs dans l'utilisation des LLM, ChatGPT, etc.
- Principe fondamental : La responsabilité reste humaine ; le respect de la sécurité de l'information et de la protection des données est obligatoire.
Chiffres et envergure
⚠️ Lacune de données : L'article ne fournit pas de chiffres concrets sur :
- Le nombre de projets d'IA en cours dans l'administration fédérale (base de données de projets mentionnée, mais non liée).
- Les budgets pour le développement et la régulation de l'IA.
- Le nombre de collaborateurs concernés.
Parties prenantes et personnes concernées
| Parties prenantes | Rôle et intérêts |
|---|---|
| Conseil fédéral et DFJP | Définit le cadre réglementaire ; équilibre innovation et protection des risques. |
| Administration fédérale | Utilisatrice de systèmes d'IA ; doit respecter les lignes directrices ; renforce ses compétences. |
| Développeurs d'IA privés et entreprises technologiques | Soumis à nouvelles exigences de conformité (à partir de 2027) ; opportunités pour des solutions conformes à la régulation. |
| Citoyens et patients | Utilisent des services basés sur l'IA (p. ex. chatbots, aide à la décision) ; exposés aux risques de protection des données et de discrimination. |
| CNAI et centres de compétences | Coordonnent, conseillent, établissent des normes. |
| Partenaires internationaux (UE, pays du Conseil de l'Europe) | Impose la convention ; pression d'harmonisation. |
Opportunités et risques
| Opportunités | Risques |
|---|---|
| Gains d'efficacité : L'IA optimise les processus administratifs (aide à la décision, analyse de données), réduit le travail manuel. | Surréglementation : Des règles trop strictes pourraient ralentir l'innovation suisse en matière d'IA ou entraîner la fuite des talents. |
| Harmonisation européenne : L'adhésion à la Convention du Conseil de l'Europe réduit la fragmentation et crée la sécurité juridique. | Lacunes de responsabilité : La « responsabilité humaine » est vague dans l'État de droit ; avec les systèmes complexes, il n'est pas clair qui est responsable. |
| Confiance et légitimité : La transparence, la protection des données et la protection contre la discrimination renforcent la participation et l'acceptation des citoyens. | Lacune de mise en œuvre : Lignes directrices sans mise en œuvre juridique → conformité optionnelle, risques persistants. |
| Souveraineté technologique : Régulation autodéterminée plutôt qu'adoption automatique par l'UE. | Incertitude d'investissement : Jusqu'en 2027, incertitude juridique pour les entreprises ; législation tardive pourrait affaiblir la compétitivité. |
| Renforcement du réseau de compétences : CNAI comme hub central favorise l'échange de bonnes pratiques et les adaptations plus rapides. | Risques liés aux données : Grandes quantités de données pour l'entraînement de l'IA dans les autorités → potentiel d'abus en cas de mauvaise application de la protection des données. |
Pertinence pour les décideurs
Pour l'administration fédérale :
- Immédiatement : Surveiller strictement la mise en œuvre des lignes directrices existantes sur l'IA ; audits de conformité pour les projets en cours.
- D'ici 2026 : Participation précoce à la procédure de consultation ; retours sur le projet de régulation basés sur l'expérience des projets pilotes.
- À long terme : Construire une culture d'éthique de l'IA ; former les collaborateurs ; établir des mécanismes de transparence pour les citoyens.
Pour l'économie privée :
- Suivi : Suivre en continu l'avant-projet de consultation (attendu en 2026) ; tester rapidement les scénarios de conformité.
- Positionnement stratégique : Les entreprises qui respectent déjà des normes élevées de protection des données et de transparence obtiennent un avantage concurrentiel.
- Coordination internationale : Synchroniser avec la Loi sur l'IA de l'UE pour éviter la double régulation.
Pour les régulateurs :
- Éviter la surréglementation : Seuils fondés sur des preuves (p. ex. réglementer strictement uniquement l'IA à « haut risque »).
- Préserver la flexibilité : Utiliser les engagements volontaires comme complément ; tenir compte de la rapidité de la technologie.
- Clarifier les questions de responsabilité : Créer une clarté juridique sur les responsabilités avant que l'IA ne dirige les infrastructures critiques.
Assurance de la qualité et examen des preuves
- [x] Les déclarations proviennent de documents officiels du Conseil fédéral (crédibilité élevée).
- [x] Répartition des compétences clairement présentée.
- [x] Calendriers explicitement énoncés.
- ⚠️ Lacunes de données : Aucune information quantitative sur les projets d'IA, les budgets ou l'ampleur des risques ; les mesures d'efficacité font défaut.
- ⚠️ Hypothèse de causalité : L'article implique que la régulation réduit les risques, sans fournir de preuves.
- ⚠️ Conflits d'intérêts : Le Conseil fédéral a un intérêt propre à l'expansion de l'IA dans les autorités ; une évaluation indépendante est encore attendue.
Recherche complémentaire
Loi sur l'IA de l'UE (2024) :
Équivalent européen ; la réglementation suisse doit être compatible → https://eur-lex.europa.eu/eli/reg/2024/1689/ojConvention sur l'IA du Conseil de l'Europe :
Cadre de droit international que la Suisse souhaite ratifier ; en particulier articles sur la transparence et la protection des droits humains → Council of Europe AI Convention (CETS No. 236)Loi suisse sur la protection des données (LPD 2024) :
Déjà en vigueur ; forme la base de la régulation de l'IA → https://www.admin.ch/opc/de/classified-compilation/20202057/index.htmlObservatoire OCDE de la politique relative à l'IA – Suisse :
Données de comparaison internationales sur la régulation de l'IA → https://oecd.aiPerspective critique opposée :
Les associations de l'industrie technologique avertissent contre la surréglementation (p. ex. swico, digitalswitzerland) ; consultez leurs documents de politique sur les coûts de conformité de l'IA.
Bibliographie
Source primaire :
Chancellerie fédérale (2025) : Intelligence Artificielle – https://www.bk.admin.ch/bk/de/home/digitale-transformation-ikt-lenkung/bundesarchitektur/kuenstliche_intelligenz.html
Documents du Conseil fédéral (cités) :
- Conseil fédéral : *Régulation de l'IA : le Conseil fédéral veut ratifier la convention du Conseil de l'