Auteur : news.admin.ch Source : news.admin.ch

Mode rédactionnel : CLARUS_ANALYSIS Recommandation d'index : INDEX Langue/Rôle : FULL_ANALYSIS Date de vérification des faits : 30.03.2026

Résumé exécutif

Le chancelier fédéral Viktor Rossi s'est exprimé lors de la conférence tripartite de la Société suisse de sciences administratives (SGVW) à Berne le 30 mars 2026 sur l'intelligence artificielle et la transformation numérique dans l'administration publique. Il a caractérisé le développement de l'IA comme une accélération technologique, mais une évolution au niveau de la politique d'État. Rossi a souligné trois points centraux : la capacité d'action de l'État, la confiance comme condition préalable, et la délimitation claire des limites d'utilisation de l'IA. La Suisse a signé la convention sur l'IA du Conseil de l'Europe et élaborera d'ici fin 2026 une proposition législative correspondante. L'administration fédérale poursuit une stratégie d'IA à trois piliers : renforcement des compétences, fiabilité et amélioration de l'efficacité.

Personnes

Thèmes

  • Intelligence artificielle dans l'administration publique
  • Transformation numérique
  • Capacité d'action de l'État et gouvernance de l'IA
  • Confiance et transparence dans les systèmes d'IA

Clarus Lead

Le discours aborde un domaine de tension croissant : alors que les technologies d'IA gagnent massivement en puissance, la confiance et les cadres réglementaires accusent du retard. Rossi positionne l'État non pas comme précurseur technologique, mais comme acteur responsable qui utilise l'IA de manière ciblée comme outil d'efficacité – mais doit consciemment réserver les fonctions centrales comme la délibération politique et l'assunzione di responsabilità à la décision humaine. Ce message s'adresse aux trois pays de langue allemande, qui font face à des défis réglementaires et organisationnels similaires.

Résumé détaillé

Rossi structure son argument autour de trois fonctions clés de l'État moderne : Vérification (établissement des faits), Délibération (pesée et hiérarchisation) et Responsabilité (assunzione di responsabilità). Ces fonctions ne doivent pas être remplacées par l'IA, même si cela serait techniquement possible. L'exemple de la Chancellerie fédérale montre l'application pratique : les modèles de langage d'IA peuvent analyser automatiquement les interventions parlementaires et les assigner aux départements compétents – une simple tâche d'analyse de texte. La décision politique concernant le ministère qui sera chef de file reste du ressort de l'homme.

La Suisse utilise déjà sa propre infrastructure d'IA. Le projet Apertus – développé par l'EPFL, l'ETH Zurich et le Centre national suisse de calcul scientifique – crée un modèle de langage ouvert et transparent avec quatre langues nationales et des données d'entraînement en open source. Le Tessin utilise une version spécialisée d'Apertus pour les traductions de documents sensibles. En parallèle, des entreprises comme Roche, Novartis et Swiss International Airlines utilisent l'IA dans la recherche, le développement et la logistique.

Rossi met en garde contre l'utilisation aveugle de l'IA. Un cas d'étude de Birmingham montre les risques : un outil d'IA (Copilot) a halluciner des risques de sécurité pour les supporters de football israéliens, basés sur des matchs fictifs. Par conséquent : l'IA soutient, mais ne remplace pas l'examen humain. L'administration fédérale a lancé en 2025 une stratégie d'IA avec trois piliers : (1) renforcement des compétences des collaborateurs, (2) fiabilité par des normes éthiques et la conformité juridique, (3) gains d'efficacité par l'automatisation des tâches routinières. Un point de coût : la synthèse vocale pour une vidéo en trois langues a coûté 12 dollars avec l'IA au lieu de 2100 francs avec des locuteurs humains – une économie qui soumet également les professions à la pression.

Messages clés

  • L'IA est pour l'État une question de capacité d'action et de légitimité, pas seulement de technologie
  • La confiance est une condition préalable, non une conséquence accessoire du succès de l'utilisation de l'IA dans l'administration
  • L'État doit utiliser l'IA comme levier d'efficacité, mais ne doit pas déléguer la vérification, la délibération et la responsabilité
  • Les développements suisses propres comme Apertus montrent que même les petits pays peuvent construire une infrastructure d'IA
  • L'utilisation aveugle de l'IA entraîne une perte de confiance et des erreurs factuelles ; l'examen humain reste central

Questions critiques

  1. Preuve/Qualité des données : Comment l'administration fédérale valide-t-elle la qualité des résultats de l'IA dans les domaines sensibles comme l'attribution des interventions parlementaires ? Quels taux d'erreur sont acceptables ?

  2. Conflits d'intérêts : Si les collaborateurs gagnent du temps grâce à l'automatisation par l'IA, il y a une incitation à examiner moins critiquement. Comment les mécanismes de contrôle sont-ils institutionnalisés pour minimiser les risques de routinisation ?

  3. Causalité/Alternatives : Rossi affirme que la confiance est une condition préalable à l'adoption de l'IA. Existe-t-il des contre-exemples où l'IA a été introduite avec succès malgré des niveaux de confiance faibles – et si oui, sous quelles conditions ?

  4. Faisabilité : La stratégie d'IA de l'administration fédérale énumère plus de 100 projets. Comment garantir que la coordination par la Chancellerie fédérale ne devient pas une structure parallèle et crée une véritable intégration départementale ?

  5. Effets secondaires : Rossi mentionne que les processus moins coûteux mettent sous pression les contrats existants. Comment le gouvernement fédéral prévoit-il de soutenir ou de recycler les groupes professionnels affectés (par exemple, traducteurs, artistes vocaux) ?

  6. Limites de la transparence : Le modèle Apertus est open source, mais la logique décisionnelle dans les applications administratives est-elle compréhensible pour les citoyens ? Qui est responsable en cas d'erreur ?

  7. Convention du Conseil de l'Europe : La Suisse a signé la convention sur l'IA du Conseil de l'Europe. En quoi la proposition législative prévue (d'ici fin 2026) diffère-t-elle de la loi sur l'IA de l'UE, et quels désavantages concurrentiels résultent des normes différentes ?

  8. Clarté des rôles : Rossi dit que l'administration vit de la pesée et de la contradiction. Comment la Chancellerie fédérale empêche-t-elle que les outils d'IA (par exemple, dans l'analyse de documents) ne mettent sous pression la délibération par leur rapidité ?


Répertoire des sources

Source primaire : Discours d'ouverture du chancelier fédéral Viktor Rossi à la conférence tripartite de la SGVW – https://www.news.admin.ch/de/newnsb/JQP4nGhpFIktGGz-ztdLf

Statut de vérification : ✓ 30.03.2026


Ce texte a été créé avec l'aide d'un modèle d'IA. Responsabilité éditoriale : clarus.news | Vérification des faits : 30.03.2026