Kurzfassung
Die Schweizer Medienbranche hat am Donnerstag auf dem Swiss Media Forum in Luzern einen verbindlichen Verhaltenskodex für den Umgang mit Künstlicher Intelligenz vorgestellt. Der Kodex wurde vom Verlegerverband Schweizer Medien (VSM), der SRG SSR und der Nachrichtenagentur Keystone-SDA entwickelt und soll bis Jahresende umgesetzt werden. Zentrale Elemente sind Transparenzpflichten, Schulungsanforderungen für Mitarbeiter, Kennzeichnungspflichten für KI-Inhalte sowie die Einrichtung unabhängiger Ombudsstellen. Das Werbemedienforschungsinstitut (WEMF) führt ergänzend ein „Responsible AI"-Audit und Zertifikat ein.
Personen
- Andrea Masüger (VSM-Präsidentin)
- Hanspeter Kellermüller (Keystone-CEO)
Themen
- Künstliche Intelligenz in Medien
- Medienregulierung und Selbstregulierung
- Journalistische Ethik
- Transparenz und Kennzeichnungspflichten
Clarus Lead
Der Schweizer Kodex signalisiert eine Vorreiterrolle bei der proaktiven Selbstregulierung von KI in der Medienbranche, während Deutschland erst nach einem ZDF-Skandal reagiert hat. Diese Schweizer Initiative setzt einen europäischen Benchmark, noch bevor der EU AI Act im August 2026 verbindliche Kennzeichnungspflichten erzwingt. Für Medienschaffende und Regulatoren ist relevant: Die Schweiz zeigt, dass Branchenkonsens ohne staatlichen Zwang möglich ist—ein Modell, das unter Druck geraten könnte, sollten einzelne Unternehmen Standards unterbieten.
Detaillierte Zusammenfassung
Der Schweizer Kodex basiert auf vier Grundsätzen: Anwenderkenntnisse, Schutz demokratischer Prozesse, Datenschutz und Transparenz. Im operativen Bereich verpflichten sich Medienunternehmen zur Schulung von Mitarbeitern, die KI-Systeme nutzen, und zum besonderen Schutz redaktioneller Inhalte sowie vertraulicher Daten. Die Öffentlichkeit soll auf Unternehmenswebseiten informiert werden, welche KI-Systeme eingesetzt werden.
Die Kennzeichnungspflichten sind zentral: Vollständig KI-generierte sowie ungeprüft veröffentlichte Inhalte (Texte, Bilder, Audio) müssen erkennbar gemacht werden. Mit KI bearbeitete oder erstellte Inhalte erfordern Faktenprüfung und ggf. Kennzeichnung. Auch interaktive KI-Systeme (Chatbots), die mit Nutzern verwechselt werden könnten, unterliegen dieser Pflicht. Parallel installieren Unternehmen interne KI-Meldestellen und eine unabhängige Ombudsstelle, die jährlich Berichte veröffentlicht.
Deutschland hingegen verfügt noch über keinen branchenweiten Kodex. ARD, ZDF und Deutschlandradio einigten sich 2025 auf einen „Human in the Loop"-Ansatz, der journalistische Verantwortung durch Menschen garantiert. Diese Selbstverpflichtung folgte teilweise dem Debakel beim ZDF, wo ein KI-generierter Filmschnipsel in einem heute-journal-Beitrag zur Abberufung der US-Korrespondentin führte. Der Skandal unterstreicht Umsetzungslücken zwischen Kodex und Praxis. International haben der Deutsche Journalisten-Verband (2023) und die European Federation of Journalists (2025) ebenfalls KI-Grundsätze beschlossen. Ab 2. August 2026 wird der EU AI Act KI-Kennzeichnung europaweit rechtsverbindlich machen.
Kernaussagen
- Schweizer Allianz: VSM, SRG SSR und Keystone-SDA etablieren branchenweites Selbstregulierungsinstrument vor staatlichem Zwang
- Vier Säulen: Anwenderkenntnisse, Demokratieschutz, Datenschutz, Transparenz
- Umsetzungsdruck: Kontrolle durch interne Meldestellen, unabhängige Ombudsstelle und WEMF-Zertifikat
- Kennzeichnungspflicht: KI-generierte und KI-bearbeitete Inhalte müssen deklariert werden
- Europäischer Kontext: Schweizer Kodex schafft de-facto-Standard vor dem EU AI Act 2026
Kritische Fragen
Quellenvalidität: Welche konkreten Sanktionsmechanismen hat der Kodex bei Verstössen—jenseits der Ombudsstelle—und wie werden diese durchgesetzt?
Interessenskonflikte: Inwiefern kann eine Selbstregulierung, die von grossen Verlegern (VSM) mitgestaltet wird, gleichzeitig gegen Übernutzung von KI zu Sparzielen wirken?
Kausalität: Ist der deutsche „Human in the Loop"-Kodex tatsächlich gescheitert, oder war der ZDF-Skandal ein isolierter Fall mangelhafter Redaktionsführung?
Umsetzbarkeit: Wie wird die jährliche Ombudsbericht-Kontrolle in der Praxis aussehen, wenn keine Bussgelder vorgesehen sind—nur Reputationsrisiko?
Datenschutz-Realität: Wie konkret werden „redaktionelle Inhalte und vertrauliche Daten" bei KI-Nutzung durch Cloud-Dienste schützen, ohne technische Spezifikationen zu nennen?
Timing-Wirkung: Kommt der Schweizer Kodex zeitlich so früh, dass er tatsächlich Druck auf die EU ausübt, oder wird er vom EU AI Act 2026 ohnehin überflüssig?
Branchenkonsens-Grenzen: Welche Schweizer Medienunternehmen haben den Kodex NICHT unterzeichnet, und warum?
Quellenverzeichnis
Primärquelle: Schweizer Medienbranche gibt sich einen KI-Kodex – heise.de https://www.heise.de/news/Schweizer-Medienbranche-gibt-sich-einen-KI-Kodex-11288213.html
Ergänzende Quellen (aus Text zitiert):
- Europarat: Konvention zu künstlicher Intelligenz
- EU AI Act (Geltungsbeginn: 2. August 2026)
- Deutsche Journalisten-Verband: Paris-Charta zu KI und Journalismus (November 2023)
- European Federation of Journalists: KI-Grundsätze (November 2025)
Verifizierungsstatus: ✓ 2025
Dieser Text wurde mit Unterstützung eines KI-Modells erstellt.
Redaktionelle Verantwortung: clarus.news | Autor (Original): Tom Sperlich