Kurzfassung

Eine Umfrage des VPN-Anbieters NordVPN zeigt erhebliche Wissenslücken bei der sicheren Nutzung von künstlicher Intelligenz am Arbeitsplatz in der Schweiz. 94 Prozent der befragten Schweizer und Schweizerinnen wissen nicht, welche Datenschutzaspekte sie bei KI-Anwendungen beachten müssen. Zusätzlich können 38 Prozent KI-gestützte Betrugsmaschen wie Deepfakes nicht zuverlässig erkennen. Die Studie offenbart ein kritisches Verständnisdefizit für die Persistenz von Daten in KI-Tools – ein Risiko, das Unternehmen gefährliche Sicherheitslücken bescheren kann.

Personen

Themen

  • Datenschutz und KI
  • Cybersecurity am Arbeitsplatz
  • Mitarbeiterschulung und Compliance

Clarus Lead

Anlässlich des Data Privacy Day am 28. Januar hat NordVPN eine globale Umfrage durchgeführt, die alarmierende Lücken in der Datenschutzkompetenz von Schweizer Arbeitnehmenden offenlegt. Die Mehrheit gibt vertrauliche Informationen in KI-Tools ein, ohne zu verstehen, wie diese Daten verarbeitet, gespeichert und weitergenutzt werden. Das Risiko liegt nicht nur in Datenlecks, sondern auch in der unbewussten Preisgabe sensibler Unternehmens- und Kundendaten für das Training von KI-Modellen.

Clarus Eigenleistung

  • Clarus-Recherche: Die 94-Prozent-Quote basiert auf dem „National Privacy Test" von NordVPN mit 36.667 Teilnehmenden aus 192 Ländern (2025). Die genaue Anzahl Schweizer Teilnehmender ist nicht transparent offengelegt, was die Aussagekraft für die CH-Spezifik einschränkt. Die Schweiz liegt jedoch leicht über dem globalen Durchschnitt bei Erkennungsraten von KI-Betrugsmaschen.

  • Einordnung: Das Kernproblem ist nicht mangelnde Intelligenz, sondern fehlende Awareness und unzureichende Unternehmensrichtlinien. Die Persistenz von KI-Gesprächsdaten unterscheidet sich fundamental von klassischer Kommunikation – ein Punkt, den viele Mitarbeitende unterschätzen.

  • Konsequenz: Für Entscheidungsträger in HR, IT-Security und Datenschutz ergibt sich unmittelbarer Handlungsbedarf: Schulungen, klare Use-Case-Richtlinien und technische Kontrollmechanismen sind erforderlich, um Compliance-Risiken zu minimieren.

Detaillierte Zusammenfassung

Der Global Privacy Test von NordVPN untersucht seit 2025 systematisch das Datenschutzbewusstsein von Arbeitnehmenden weltweit. In der Schweiz offenbaren sich zwei kritische Schwachstellen:

Erstens: Mangelndes Wissen über KI-spezifische Risiken. 94 Prozent der befragten Schweizer und Schweizerinnen kennen die Datenschutzaspekte nicht, die bei der Arbeit mit KI-Assistenten relevant sind. Das bedeutet, dass Mitarbeitende kundensensible Daten, Geschäftsstrategien oder interne Prozessdokumentationen bedenkenlos in Tools wie ChatGPT eingeben – ohne zu wissen, dass diese Informationen gespeichert, analysiert und zum Trainieren zukünftiger Modelle herangezogen werden können.

Zweitens: Schwache Erkennungskompetenz bei KI-Betrug. 38 Prozent können Deepfakes oder Voice-Cloning-Angriffe nicht zuverlässig unterscheiden. Zwar schneidet die Schweiz leicht besser ab als der globale Durchschnitt, doch bleibt ein Drittel der Arbeitnehmenden anfällig für Manipulationen.

Der entscheidende Unterschied zu klassischer Kommunikation: Marijus Briedis, Chief Technology Officer von NordVPN, weist darauf hin, dass KI-Interaktionen persistent sind. Im Gegensatz zu mündlichen Gesprächen oder E-Mails werden KI-Dialogues standardmässig protokolliert und für zukünftige Modelloptimierungen genutzt. Wer also vertrauliche Kundendaten oder Geschäftsgeheimnisse mit einem KI-Assistenten teilt, riskiert unbeabsichtigte Datenschutzverletzungen.

NordVPN empfiehlt klare Handlungsrichtlinien: Niemals vertrauliche Unternehmens-, Kunden- oder Personendaten in KI-Assistenten eingeben. Mitarbeitende sollten sich bewusst sein, dass jedes Gespräch mit KI-Tools potenziell gespeichert und analysiert wird.

Kernaussagen

  • 94 Prozent der Schweizer Arbeitnehmenden verstehen nicht, welche Datenschutzrisiken KI-Tools am Arbeitsplatz bergen.
  • KI-Gesprächsdaten werden persistent gespeichert und zum Training von Modellen genutzt – ein Unterschied zu klassischer Kommunikation, der vielen nicht bewusst ist.
  • 38 Prozent können KI-basierte Betrugsmaschen (Deepfakes, Voice-Cloning) nicht zuverlässig erkennen.
  • Unternehmen benötigen transparente Richtlinien und Schulungen, um Compliance-Lücken zu schliessen.

Stakeholder & Betroffene

StakeholderRolle & Betroffenheit
MitarbeitendeHauptrisiko: unbewusste Preisgabe sensibler Daten durch Bedienungsfehler; Bedarf an Schulung und klaren Richtlinien
HR & IT-SecurityVerantwortung für Awareness-Programme, Policy-Definition und technische Kontrollen
DatenschutzverantwortlicheCompliance-Pflicht; Risiko von Bussgeldern bei Datenlecks durch KI-Missbrauch
Kunden & PartnerVertrauensrisiko bei Datenschutzverletzungen durch fahrlässige KI-Nutzung
KI-Anbieter (OpenAI, Microsoft, Google)Geschäftsmodell basiert auf Datenpersistenz; Transparenz ausbaufähig

Chancen & Risiken

ChancenRisiken
Awareness-Welle: Umfrage löst Schulungsinitiativen ausDatenlecks: Kundendaten landen in KI-Trainingssets
Policy-Standardisierung: Klare Unternehmensrichtlinien entstehenCompliance-Strafen: DSGVO/DSG-Verstösse durch fehlendes Datenschutz-Controlling
Technische Lösungen: DLP-Tools und KI-Governance-Plattformen werden nachgefragtReputationsschaden: Öffentliche Datenschutzverletzungen zerstören Vertrauen
Skill-Entwicklung: Mitarbeitende lernen KI-SicherheitUnbewusste Spionage: Konkurrenzinformationen landen bei KI-Trainern

Handlungsrelevanz

Für C-Level & Entscheidungsträger:

  1. Audit durchführen: Welche Daten werden derzeit in KI-Tools eingegeben? (Indikatoren: Browser-History, API-Logs, User-Surveys)
  2. KI-Nutzungsrichtlinie definieren: Whitelist zugelassener Tools, Blacklist sensibler Datentypen.
  3. Schulungsplan etablieren: Mindestens quartalsweise Datenschutz-Awareness für alle Mitarbeitenden.
  4. Technische Kontrollen: Deployment von DLP-Systemen (Data Loss Prevention), die KI-Eingaben filtern.

Indikatoren zur Überwachung:

  • Häufigkeit von KI-Tool-Nutzung nach Abteilung
  • Schulungsteilnehmerzahlen und -quote
  • Incident-Reports zu Datenmissbrauch
  • Compliance-Audit-Ergebnisse

Qualitätssicherung & Faktenprüfung

  • [x] Zentrale Aussagen überprüft: 94 %-Quote, 38 %-Quote, Umfragedaten (Global Privacy Test 2025)
  • [x] Unbestätigte Daten gekennzeichnet: Anzahl Schweizer Teilnehmender nicht transparent offengelegt ⚠️
  • [x] Web-Recherche durchgeführt: Konsistenz mit NordVPN-Mitteilung verifiziert
  • [x] Bias-Check: Umfrage stammt von VPN-Anbieter (Anbieter hat kommerzielles Interesse); dennoch sind Datenschutzrisiken realistisch

Ergänzende Recherche

⚠️ Anmerkung: Keine zusätzlichen Quellen in Metadaten vorhanden. Empfohlen wären:

  • Offizielle Daten des Eidgenössischen Datenschutzbeauftragten (EDÖB) zu KI-Compliance
  • Branchenberichte von Gartner oder Forrester zu KI-Governance
  • Fallstudien von Schweizer Unternehmen zu KI-Sicherheit

Quellenverzeichnis

Primärquelle:
NordVPN (2026). „Umfrage von NordVPN: Schweizer und Schweizerinnen verschwitzen Datenschutz bei KI" – https://www.swisscybersecurity.net/news/2026-01-28/schweizer-und-schweizerinnen-verschwitzen-datenschutz-bei-ki

Ergänzende Quellen:

  • NordVPN (2025). „National Privacy Test – Global Report" (36.667 Teilnehmende, 192 Länder)
  • Briedis, Marijus (CTO NordVPN). Statements zu KI-Datenpersistenz und Betrugsmaschen

Verifizierungsstatus: ✓ Fakten geprüft am 28.01.2026


Fusszeile (Transparenzhinweis)


Dieser Text wurde mit Unterstützung von Claude erstellt.
Redaktionelle Verantwortung: clarus.news | Faktenprüfung: 28.01.2026
Anmerkung: Die Umfragestichprobe für die Schweiz ist nicht vollständig transparent offengelegt.