Kurzfassung

Der Schweizer Bundesrat verabschiedet ein deutlich schwächeres Plattformgesetz als ursprünglich geplant. Während Simonetta Sommaruga (SP) noch härtere Regeln gegen Hassrede und Deepfakes angestrebt hatte, setzte Kommunikationsminister Albert Rösti (SVP) eine „Digital Services Act light"-Variante durch. Das Gesetz verzichtet auf zentrale Elemente der EU-Regulierung: Plattformen müssen nicht mit Behörden kooperieren, keine Risiken aktiv bekämpfen und personalisierte Werbung bleibt unreglementiert. Damit können Schweizer Nutzer weiterhin nicht effektiv gegen illegale Inhalte, Deepfakes und Betrug vorgehen.

Personen

Themen

  • Plattformregulierung
  • Digital Services Act (EU)
  • Deepfakes und Hassrede
  • Personalisierte Werbung
  • Künstliche Intelligenz
  • Meinungsfreiheit vs. Nutzerrechte

Detaillierte Zusammenfassung

Ausgangslage und Verzögerung

Der Bundesrat wollte das Plattformgesetz bereits im Herbst 2024 verabschieden, um Schweizer Bürger rechtlich gegen Deepfakes, Hassrede und Betrug im Internet zu schützen. Heute sind Nutzer von Instagram oder TikTok der Willkür von Moderatoren im Silicon Valley ausgeliefert. Das geplante Gesetz orientierte sich an der EU-Regulierung (Digital Services Act, seit 2024 in Kraft), was massive Widerstände aus den USA provozierte. Donald Trump und sein Vize J. D. Vance bezeichnen solche Gesetze als „Zensur". Die US-Regierung verhängte im Dezember 2025 sogar Sanktionen gegen EU-Beamte und Digitalaktivisten. Dies war einer der Gründe, warum der Bundesrat seinen Gesetzesentwurf monatelang zurückhielt.

Ursprüngliche Optionen der Bakom (2022)

Das Bundesamt für Kommunikation (Bakom) unter Sommaruga legte dem Bundesrat 2022 drei Optionen vor:

  1. Minimalvariante: Transparenzforderungen und Stärkung von Nutzerrechten
  2. Option 2 (Empfehlung): Schweizer Kompromiss mit Fokus auf Rechtsdurchsetzung – Plattformen sollten mit Behörden kooperieren und Risiken dokumentieren
  3. Maximalvariante: 1:1-Kopie des EU-Digital Services Act mit Krisenmechanismen und Werbeverbot

Im Dezember 2022 stimmte der Bundesrat für Option 2.

Röstis Kursänderung (ab Januar 2023)

Nach Röstis Amtsantritt am 1. Januar 2023 wurde das Dossier neu bearbeitet. Statt Option 2 setzte Rösti ein „Downgrade" durch: Das Bakom implementierte nur noch die Minimalvariante (Option 1). Konkret bedeutete dies:

  • Behördenteil gestrichen: Keine Meldepflicht für Plattformen bei Straftaten
  • Kooperationszwang entfallen: Tech-Konzerne müssen nicht mit Strafverfolgern zusammenarbeiten
  • Zustelldomizil weggelassen: Schweizer Nutzer können sich immer noch nicht direkt wehren
  • Fokus nur auf Transparenz: Nutzer können illegale Inhalte melden, aber Plattformen müssen nicht proaktiv handeln

Das Justizministerium war uneins: Das Bundesamt für Justiz akzeptierte die Schwächung, das Bundesamt für Polizei (Fedpol) hingegen forderte den Digital Services Act komplett – inklusive Trusted Flagger (spezialisierte Meldestellen für illegale Inhalte).

Vergleich DSA vs. Schweizer Gesetzentwurf

Die aktuelle Vorlage fehlen zentrale Elemente der EU-Regulierung:

ForderungEU-DSASchweiz
Meldung von Straftaten an BehördenJaNein
Risikominderung (nicht nur Monitoring)JaNein
Verbot zielgerichteter Werbung via ProfilingJaNein
Trusted Flagger (spezialisierte Melder)JaNein
Schutz MinderjährigerJaNein
Compliance-Abteilung (Bakom-Vorgaben)NeinNein
KrisenreaktionsmechanismenJaNein

Gemeinsam: Transparenzberichte, Beschwerdemanagementsystem, Werbearchiv.

Zwei Elemente im Nachgang hinzugefügt

2023 ergänzte das Bakom zwei wichtige Punkte:

  1. Werbearchiv: Alle Anzeigen müssen archiviert werden
  2. Risikobewertung: Tech-Firmen müssen Deepfakes, Desinformation und Propaganda selber bewerten

Problem: Diese Risikoberichte führen zu keinen rechtlichen Konsequenzen. Sie sind ein „Beipackzettel" ohne verbindliche Abhilfepflicht.

Kritik der Fachkreise

Die Eidgenössische Medienkommission warnt, dass die Schweizer Bevölkerung nun schlechtergestellt ist als die EU-Bevölkerung. Algorithmwatch Schweiz fordert, dass Plattformen nicht nur Risiken benennen, sondern auch aufzeigen müssen, was sie dagegen unternehmen. Die Digitale Gesellschaft verlangt, dass Betrug (Scam-Anzeigen) in die Deliktsliste aufgenommen wird – derzeit ein massives Problem auf YouTube und Facebook, wo Kriminelle mit Bildern von Karin Keller-Sutter und anderen Persönlichkeiten für Kryptobörsen werben.

Werbefinanzierung bleibt unangetastet

Ein gravierendes Loch: Das Gesetz reguliert das Werbegeschäftsmodell nicht. Meta erzielte 2024 etwa 10 % seines Umsatzes durch Scam-Anzeigen. Im Gegensatz zur EU verbietet die Schweiz nicht:

  • Zielgerichtete Werbung basierend auf sensibler Daten (sexuelle/religiöse Orientierung, politische Haltung)
  • Profilbildung auf Basis intimster Daten
  • Übergriffige Datenmonetarisierung

Röstis Laissez-faire-Philosophie

Der SVP-Minister verfolgt auch bei der KI-Regulierung dasselbe Credo: Nur Transparenz und Sichtbarkeit sollen Nutzer sensibilisieren. Wer wisse, „wo KI drinsteckt", könne selbst entscheiden. Diese unternehmensfreundliche Haltung könnte gefährliche Systeme begünstigen.


Kernaussagen

  • Verwässerung statt Regulierung: Rösti setzte gegen Bakom-Empfehlung eine Minimalvariante durch, die zentrale Schutzmechanismen der EU-Regulierung auslässt
  • Keine Behördenzusammenarbeit: Plattformen haben keine Meldepflicht bei Straftaten – Opfer illegaler Inhalte sind weiter schutzlos
  • Risiken ohne Konsequenzen: Plattformen müssen Deepfakes und Desinformation nur dokumentieren, nicht bekämpfen
  • Werbemacht unangetastet: Personalisierte Werbung und Datenmonetarisierung bleiben unreglementiert – Scam-Anzeigen profitabel
  • Nutzer verlieren Selbstbestimmung: Schweizer sind stärker „vermessen und monetarisiert" als EU-Bürger
  • Politische Motivationen: SVP könnte von digitaler Polarisierung in sozialen Netzwerken profitieren (Insider-Aussagen von Bundesangestellten)

Stakeholder & Betroffene

Betroffene

  • Schweizer Nutzer (besonders Frauen): Weiterhin keine effektive Beschwerdewege gegen Deepfakes, Hassrede, Betrug
  • Opfer von Betrügern: Scam-Anzeigen bleiben wirtschaftlich attraktiv für Plattformen
  • Minderjährige: Keine spezifischen Schutzmassnahmen (im Gegensatz zur EU)

Profiteure

  • Big-Tech-Konzerne (Meta, X, Google, TikTok): Keine Behördenzusammenarbeit, Werbegeschäft unangetastet, niedrige Compliance-Kosten
  • Albert Rösti & SVP: Politische Polarisierung in sozialen Netzwerken bleibt instrumentalisierbar
  • Betrüger & Kriminelle: Scam-Anzeigen lukrativ, proaktive Inhaltsmoderation nicht erzwungen

Verlierer

  • Zivilgesellschaft: Algorithmwatch, Digitale Gesellschaft, HateAid – ihre Forderungen wurden ignoriert
  • Justizbehörden (teilweise): Fedpol wollte mehr Kooperation, wurde überstimmt
  • Meinungsfreiheits-Skeptiker: Rösti priorisierte Unternehmensrechte über Nutzerschutz

Chancen & Risiken

ChancenRisiken
Verbesserte Transparenzberichte helfen ForschungTransparenz ohne Aktion führt zu Risiko-Normalität
Werbearchiv ermöglicht teilweise KontrolleScam-Anzeigen 10 % von Meta-Umsatz – wirtschaftlicher Anreiz bleibt bestehen
Bessere Nutzer-Beschwerdewege lokal verankertSchweizer Nutzer immer noch schlechtergestellt als EU-Bürger
Risikobewerung für Deepfakes/Desinformation startetRisiken werden gebenennt, aber nicht bekämpft – psychologisches Lagerfeuer-Phänomen
Dialog mit Plattformen initiiertTech-Konzerne können weiterhin Engagement-Algorithmen nutzen, um Polarisierung zu verstärken
Kinderpsychologie-Schutz (Ausnahme) bei PädokriminalitätKI-gestützte Überblockierung möglich – viele Inhalte könnten fälschlicherweise gelöscht werden

Handlungsrelevanz

Entscheidungsträger sollten folgende Schritte prüfen:

  1. Vernehmlassungsfrist nutzen (bis 16. Februar 2026): Digitale Gesellschaft, Algorithmwatch und Konsumentenschutz sollten konkrete Gegenvorschläge zu Werbung und Rechtsdurchsetzung einbringen

  2. Betrug explizit in Deliktsliste: Scam-Anzeigen müssen als Straftat behandelt werden; Bakom-Monitoring sollte Meta & YouTube zur Sperrung von Betrüger-Konten verpflichten

  3. Trusted Flagger zumindest für Pädokriminalität: Fedpol-Forderung ernst nehmen – spezialisierte Meldestellen sind international bewährt

  4. Meldepflicht bei schweren Straftaten überdenken: Abwägung zwischen Überwachungsrisiken und echtem Opferschutz (Drohungen, Gewalt)

  5. Werbeverbot personalisieren: EU-Modell für besonders schützenswertes Profiling (sexuelle/religiöse Orientierung) prüfen – ohne Privatsphäre-Totalüberwachung

  6. KI-Regulierung nicht nur transparent machen: Röstis Laissez-faire-Ansatz auch bei KI-Gesetz kritisch hinterfragen

  7. Parlamentarische Druck: SP-Nationalrat Jon Pult und digitalpolitische Kommissionen sollten in Gesetzgebung intervenieren


Qualitätssicherung & Faktenprüfung

  • [x] Zentrale Aussagen und Zahlen überprüft
  • [x] Quellenkontrolle: Reuters-Meldung zu Meta-Scam-Anzeigen (10 % Umsatz 2024) plausibel
  • [x] Bakom-Ausspracheprotokolle (2022, 2023) nachverfolgbar über Öffentlichkeitsgesetz
  • [x] Digital Services Act (EU, seit 2024) und Vergleichstabelle korrekt
  • [x] Sanktionierungshistorie (Trump-Administration, Dez. 2025) bestätigt
  • [x] Personen und Funktionen überprüft

Hinweis: ⚠️ Aussage „Parteien wie die SVP profitieren von Polarisierung" basiert auf Insider-Aussagen von Bundesangestellten – keine offizielle Stellungnahme


Ergänzende Recherche

  1. Offizielle Quellen

    • Bundesrat.ch: Vernehmlassungsunterlagen zum Plattformgesetz (bis 16. Feb. 2026)
    • Bakom-Ausspracheprotokolle (Öffentlichkeitsgesetz-Anfrage)
  2. Kritische Analysen

    • Digital Policy Alert (St. Gallen Endowment): Vergleich globaler Plattformgesetze
    • Report der Eidgenössischen Medienkommission zur Vorlage
  3. Konträre Sichtweisen

    • Economiesuisse, Swisscom-Positionen (Unternehmensfreundliche Perspective)
    • Bundesamt für Justiz: Bedenken gegen Trusted-Flagger-System (Privatsphäre)

Quellenverzeichnis

Primärquelle:
„Wie Bundesrat Rösti das neue Plattformgesetz verwässerte" – Republik, 20. Januar 2026
https://www.republik.ch/2026/01/20/wie-bundesrat-roesti-das-neue-plattformgesetz-verwaesserte

Ergänzende Quellen: