Auteur: heise.de
Mode rédactionnel: CLARUS_ANALYSIS Recommandation d'indexation: INDEX Langue/Rôle: FULL_ANALYSIS Date de vérification des faits: 2025
Résumé
L'industrie médiatique suisse a présenté jeudi au Swiss Media Forum à Lucerne un code de conduite contraignant pour l'utilisation de l'intelligence artificielle. Le code a été élaboré par l'association des éditeurs Médias suisses (VSM), la SRG SSR et l'agence de presse Keystone-SDA et doit être mis en œuvre avant la fin de l'année. Les éléments centraux sont les obligations de transparence, les exigences de formation des employés, les obligations d'étiquetage des contenus générés par l'IA ainsi que la mise en place d'ombudsmans indépendants. L'institut de recherche sur les médias publicitaires (WEMF) introduit en complément un audit et un certificat « Responsible AI ».
Personnes
- Andrea Masüger (présidente de la VSM)
- Hanspeter Kellermüller (PDG de Keystone)
Thèmes
- Intelligence artificielle dans les médias
- Régulation médiatique et autorégulation
- Éthique journalistique
- Transparence et obligations d'étiquetage
Clarus Lead
Le code suisse signale une position de précurseur dans l'autorégulation proactive de l'IA dans l'industrie médiatique, tandis que l'Allemagne n'a réagi qu'après un scandale à la ZDF. Cette initiative suisse établit un repère européen, avant même que la loi sur l'IA de l'UE en août 2026 ne rende obligatoires les obligations d'étiquetage. Pour les professionnels des médias et les régulateurs, il est pertinent de noter que la Suisse démontre qu'un consensus de branche sans contrainte d'État est possible—un modèle qui pourrait être mis sous pression si des entreprises individuelles ne respectaient pas les normes.
Résumé détaillé
Le code suisse repose sur quatre principes : connaissances des utilisateurs, protection des processus démocratiques, protection des données et transparence. Sur le plan opérationnel, les entreprises médiatiques s'engagent à former les employés qui utilisent les systèmes d'IA et à protéger particulièrement les contenus rédactionnels et les données confidentielles. Le public doit être informé sur les sites Web des entreprises des systèmes d'IA utilisés.
Les obligations d'étiquetage sont centrales : les contenus entièrement générés par l'IA ainsi que ceux publiés sans vérification (textes, images, audio) doivent être clairement identifiés. Les contenus modifiés ou créés avec l'IA nécessitent une vérification des faits et, le cas échéant, un étiquetage. Les systèmes d'IA interactifs (chatbots) susceptibles d'être confondus avec des utilisateurs sont également soumis à cette obligation. Parallèlement, les entreprises installent des signalements d'IA internes et un ombudsman indépendant qui publie des rapports annuels.
L'Allemagne, en revanche, ne dispose toujours pas de code éthique à l'échelle de l'industrie. La ARD, la ZDF et Deutschlandradio se sont entendus en 2025 sur une approche « Human in the Loop », qui garantit la responsabilité journalistique par des humains. Cet engagement volontaire a suivi en partie le fiasco de la ZDF, où un fragment de film généré par l'IA dans un reportage du journal télévisé « heute-journal » a entraîné le rappel de la correspondante américaine. Le scandale souligne les lacunes dans la mise en œuvre entre le code et la pratique. À l'international, l'Association allemande des journalistes (2023) et la Fédération européenne des journalistes (2025) ont également adopté des principes d'IA. À partir du 2 août 2026, la loi sur l'IA de l'UE rendra l'étiquetage de l'IA juridiquement contraignant à l'échelle européenne.
Points clés
- Alliance suisse: VSM, SRG SSR et Keystone-SDA établissent un instrument d'autorégulation à l'échelle de l'industrie avant la contrainte d'État
- Quatre piliers: connaissances des utilisateurs, protection de la démocratie, protection des données, transparence
- Pression de mise en œuvre: contrôle par les signalements internes, ombudsman indépendant et certificat WEMF
- Obligation d'étiquetage: les contenus générés et modifiés par l'IA doivent être déclarés
- Contexte européen: le code suisse crée une norme de facto avant la loi sur l'IA de l'UE 2026
Questions critiques
Validité des sources: Quels sont les mécanismes de sanction concrets du code en cas de violation—au-delà de l'ombudsman—et comment sont-ils appliqués?
Conflits d'intérêts: Dans quelle mesure une autorégulation, façonnée par de grands éditeurs (VSM), peut-elle s'opposer à une surutilisation de l'IA pour réduire les coûts?
Causalité: Le code allemand « Human in the Loop » a-t-il vraiment échoué, ou le scandale de la ZDF était-il un cas isolé de mauvaise gestion rédactionnelle?
Faisabilité: À quoi ressemblera le contrôle du rapport annuel de l'ombudsman dans la pratique, si aucune amende n'est prévue—seulement le risque réputationnel?
Réalité de la protection des données: Comment protégeront-on concrètement les « contenus rédactionnels et les données confidentielles » lors de l'utilisation de l'IA par des services cloud, sans spécifier les détails techniques?
Effet de timing: Le code suisse arrive-t-il suffisamment tôt pour exercer une pression sur l'UE, ou sera-t-il de toute façon rendu superflu par la loi sur l'IA de l'UE 2026?
Limites du consensus de branche: Quelles entreprises médiatiques suisses N'ONT PAS signé le code, et pourquoi?
Bibliographie
Source primaire: L'industrie médiatique suisse se donne un code d'éthique IA – heise.de https://www.heise.de/news/Schweizer-Medienbranche-gibt-sich-einen-KI-Kodex-11288213.html
Sources complémentaires (citées dans le texte):
- Conseil de l'Europe: Convention sur l'intelligence artificielle
- Loi sur l'IA de l'UE (entrée en vigueur: 2 août 2026)
- Association allemande des journalistes: Charte de Paris sur l'IA et le journalisme (novembre 2023)
- Fédération européenne des journalistes: Principes d'IA (novembre 2025)
Statut de vérification: ✓ 2025
Ce texte a été créé avec le soutien d'un modèle d'IA.
Responsabilité rédactionnelle: clarus.news | Auteur (original): Tom Sperlich