Auteur: blick.ch

Mode rédaction: CLARUS_ANALYSIS Recommandation indexation: INDEX Langue/Rôle: FULL_ANALYSIS Date vérification des faits: 2024

Résumé court

Le secteur médiatique suisse présente au Swiss Media Forum à Lucerne un nouveau code de l'IA destiné à réguler uniformément l'intelligence artificielle dans le secteur publicitaire. Le code repose sur quatre principes : les connaissances des utilisateurs, la protection des processus démocratiques, la protection des données et la transparence. Tous les contenus générés par l'IA doivent être signalés ; les maisons de presse restent responsables de leurs publications – indépendamment de leur origine. Les principales organisations telles que l'Association des éditeurs Médias Suisses (VSM), SRG, Keystone-SDA et Ringier soutiennent l'initiative. Pour le contrôle, un bureau du médiateur indépendant est créé avec des rapports de transparence annuels.

Personnes

Thèmes

  • Intelligence artificielle dans les médias
  • Éthique et normes journalistiques
  • Régulation des médias et autorégulation
  • Transparence et confiance des consommateurs
  • Deepfakes et compétences médiatiques

Clarus Lead

L'initiative signale que le secteur médiatique suisse régule proactivement l'IA, tandis que les débats mondiaux sur les algorithmes et les contenus synthétiques s'intensifient. Le code aborde un problème central de confiance : les utilisateurs doivent pouvoir distinguer ce qui provient des humains ou des machines – notamment en cas de deepfakes et de contenu visuel manipulé. Avec le bureau du médiateur et le label de qualité WEMF prévu, la Suisse se positionne comme pionnière dans l'utilisation responsable de l'IA, tandis que d'autres pays travaillent encore sur des cadres réglementaires.

Résumé détaillé

Le code oblige les entreprises médiatiques à des obligations de signalisation strictes. Les contenus acoustiques ou visuels générés par l'IA qui présentent faussement des personnes ou des objets comme authentiques – les soi-disant deepfakes – doivent être signalés et ne peuvent pas être publiés s'ils sont illégaux. Tous les contenus créés ou modifiés avec l'IA doivent être vérifiés éditorialement avant la publication. Les contenus générés par l'IA entièrement automatisés et non vérifiés doivent également être signalés. Les chatbots et les systèmes d'IA interactifs qui pourraient être confondus avec des utilisateurs nécessitent un marquage clair.

Le cadre réglementaire est soutenu par une large alliance : en plus du VSM, aussi Médias Suisses, Media Svizzeri, l'Association des radios privées suisses (VSP), l'Association des télévisions privées suisses (VSPF), Telesuisse et l'Institut MAZ. Le système de contrôle en deux étapes comprend des points de signalement internes des entreprises en matière d'IA comme premier guichet de réclamation et un bureau du médiateur indépendant qui publie des rapports de transparence annuels. Le code est conçu comme un document vivant et sera régulièrement ajusté. En parallèle, la WEMF développe un « audit IA responsable » et un label de qualité pour certifier l'utilisation responsable de l'IA. Les maisons de presse individuelles comme Ringier (dont Blick fait partie) ont déjà mis en œuvre depuis 2023 leurs propres directives strictes en matière d'IA, qui interdisent notamment les photos d'IA photoréalistes dans la section des actualités.

Affirmations clés

  • Le code de l'IA établit des normes uniformes pour toutes les entreprises médiatiques suisses ; la responsabilité des contenus reste chez les éditeurs.
  • Les contenus générés et manipulés par l'IA doivent être clairement signalés ; les deepfakes sont généralement interdits.
  • Un système de contrôle en deux étapes avec des points de signalement internes des entreprises et un bureau du médiateur indépendant assure le respect.
  • La régulation s'appuie sur la convention du Conseil de l'Europe sur l'IA et positionne la Suisse comme pionnière réglementaire.

Questions critiques

  1. Application & Sanctions: Le code définit les obligations de signalisation et les processus du bureau du médiateur – mais quelles sanctions menacent en cas de violation ? Le bureau du médiateur possède-t-il le pouvoir de refus ou seulement des compétences de recommandation ?

  2. Détectabilité technique: Comment les rédactions s'assurent-elles que les manipulations d'IA subtiles (p. ex. modifications d'image minimales) sont détectées ? Existe-t-il des exigences de formation ou des normes techniques pour la vérification ?

  3. Conflits d'intérêts dans l'autorégulation: L'initiative est soutenue par de grands éditeurs comme Ringier – les petites maisons de presse indépendantes peuvent-elles développer des pratiques différentes sans craindre de désavantages concurrentiels ?

  4. Cohérence internationale: Les médias suisses concurrencent les plateformes mondiales et les éditeurs internationaux qui appliquent d'autres normes. Comment le code prévient-il les distorsions de concurrence ?

  5. Limites définitionnelles: Qu'entend-on exactement par « généré par l'IA » ? Si un journaliste utilise un outil de texte (p. ex. vérificateur d'orthographe, autocomplétion), cela relève-t-il de l'obligation de signalisation ?

  6. Crédibilité de l'audit: La WEMF développe elle-même le label de qualité. Comment garantit-on un examen externe et indépendant pour exclure les conflits d'intérêts ?


Répertoire des sources

Source primaire: Confiance par la responsabilité : le secteur médiatique suisse s'accorde sur un code de l'IA – https://www.blick.ch/digital/vertrauen-durch-verantwortung-schweizer-medienbranche-einigt-sich-auf-ki-kodex-id21928701.html

Statut de vérification: ✓ 2024


Ce texte a été créé avec l'aide d'un modèle d'IA. Responsabilité éditoriale : clarus.news | Vérification des faits : 2024