Auteur: swisscybersecurity.net

Mode rédactionnel: CLARUS_ANALYSIS
Recommandation d'index: INDEX
Langue/Rôle: FULL_ANALYSIS
Date de vérification des faits: 28.01.2026

Résumé

Une enquête du fournisseur VPN NordVPN révèle des lacunes importantes en matière de connaissances sur l'utilisation sécurisée de l'intelligence artificielle sur le lieu de travail en Suisse. 94 pour cent des Suisses et Suissesses interrogés ne savent pas quels aspects de protection des données ils doivent respecter lors de l'utilisation d'applications d'IA. De plus, 38 pour cent ne peuvent pas identifier de manière fiable les escroqueries basées sur l'IA, comme les deepfakes. L'étude révèle un déficit critique de compréhension concernant la persistance des données dans les outils d'IA – un risque qui peut créer des failles de sécurité dangereuses pour les entreprises.

Personnes

Thèmes

  • Protection des données et IA
  • Cybersécurité sur le lieu de travail
  • Formation des employés et conformité

Clarus Lead

À l'occasion de la Journée de la protection des données le 28 janvier, NordVPN a mené une enquête mondiale qui révèle des lacunes alarmantes dans les compétences en matière de protection des données chez les travailleurs suisses. La majorité entre des informations confidentielles dans les outils d'IA sans comprendre comment ces données sont traitées, stockées et réutilisées. Le risque ne réside pas seulement dans les fuites de données, mais aussi dans la divulgation involontaire de données sensibles sur les entreprises et les clients pour l'entraînement des modèles d'IA.

Clarus Eigenleistung

  • Recherche Clarus: Le taux de 94 pour cent est basé sur le « National Privacy Test » de NordVPN avec 67.367 participants de 192 pays (2025). Le nombre exact de participants suisses n'est pas divulgué de manière transparente, ce qui limite la pertinence spécifique à la Suisse. Cependant, la Suisse se situe légèrement au-dessus de la moyenne mondiale en ce qui concerne les taux de détection des escroqueries basées sur l'IA.

  • Classement: Le problème fondamental n'est pas le manque d'intelligence, mais l'absence de sensibilisation et les politiques d'entreprise insuffisantes. La persistance des données de conversation d'IA diffère fondamentalement de la communication classique – un point que de nombreux employés sous-estiment.

  • Conséquence: Pour les décideurs en ressources humaines, sécurité informatique et protection des données, un besoin d'action immédiat se fait sentir : des formations, des directives claires sur les cas d'utilisation et des mécanismes de contrôle techniques sont nécessaires pour minimiser les risques de conformité.

Résumé détaillé

Le Global Privacy Test de NordVPN examine systématiquement depuis 2025 la sensibilisation à la protection des données chez les travailleurs du monde entier. En Suisse, deux points faibles critiques se révèlent:

Premièrement: Manque de connaissances sur les risques spécifiques à l'IA. 94 pour cent des Suisses et Suissesses interrogés ne connaissent pas les aspects de la protection des données pertinents lors de l'utilisation d'assistants d'IA. Cela signifie que les employés entrent sans crainte des données sensibles aux clients, des stratégies commerciales ou des documents de processus internes dans des outils comme ChatGPT – sans savoir que ces informations peuvent être stockées, analysées et utilisées pour former des modèles futurs.

Deuxièmement: Capacité faible à détecter les fraudes basées sur l'IA. 38 pour cent ne peuvent pas distinguer de manière fiable les deepfakes ou les attaques par clonage vocal. Bien que la Suisse obtienne des résultats légèrement meilleurs que la moyenne mondiale, un tiers des travailleurs restent vulnérables aux manipulations.

La différence décisive par rapport à la communication classique: Marijus Briedis, directeur technique de NordVPN, souligne que les interactions avec l'IA sont persistantes. Contrairement aux conversations orales ou aux e-mails, les dialogues d'IA sont standardisément enregistrés et utilisés pour l'optimisation future des modèles. Celui qui partage donc des données sensibles sur les clients ou des secrets commerciaux avec un assistant d'IA risque des violations involontaires de la protection des données.

NordVPN recommande des directives d'action claires: Ne jamais entrer de données confidentielles sur l'entreprise, les clients ou les personnes dans des assistants d'IA. Les employés doivent être conscients que chaque conversation avec les outils d'IA est potentiellement stockée et analysée.

Déclarations clés

  • 94 pour cent des travailleurs suisses ne comprennent pas quels risques de protection des données les outils d'IA présentent sur le lieu de travail.
  • Les données de conversation d'IA sont stockées de manière persistante et utilisées pour l'entraînement des modèles – une différence par rapport à la communication classique dont beaucoup n'ont pas conscience.
  • 38 pour cent ne peuvent pas identifier de manière fiable les escroqueries basées sur l'IA (deepfakes, clonage vocal).
  • Les entreprises ont besoin de politiques transparentes et de formations pour combler les lacunes de conformité.

Parties prenantes et personnes concernées

Parties prenantesRôle et impact
EmployésRisque principal: divulgation involontaire de données sensibles par erreur de manipulation; besoin de formation et de directives claires
HR et sécurité informatiqueResponsabilité des programmes de sensibilisation, définition des politiques et contrôles techniques
Responsables de la protection des donnéesObligation de conformité; risque d'amendes en cas de fuites de données dues à un abus d'IA
Clients et partenairesRisque de confiance en cas de violations de la protection des données dues à une utilisation imprudente de l'IA
Fournisseurs d'IA (OpenAI, Microsoft, Google)Le modèle commercial est basé sur la persistance des données; la transparence peut être améliorée

Opportunités et risques

OpportunitésRisques
Vague de sensibilisation: L'enquête déclenche des initiatives de formationFuites de données: Les données des clients se retrouvent dans les ensembles de formation d'IA
Standardisation des politiques: Des directives claires de l'entreprise émergentPénalités de conformité: Violations RGPD/LPD en raison d'un contrôle insuffisant de la protection des données
Solutions techniques: Les outils DLP et les plates-formes de gouvernance IA sont demandésAtteinte à la réputation: Les violations publiques de la protection des données détruisent la confiance
Développement des compétences: Les employés apprennent la sécurité de l'IAEspionnage involontaire: Les informations concurrentielles se retrouvent chez les formateurs d'IA

Pertinence pour l'action

Pour le C-Level et les décideurs:

  1. Procéder à un audit: Quelles données sont actuellement saisies dans les outils d'IA? (Indicateurs: historique du navigateur, journaux API, sondages utilisateurs)
  2. Définir une politique d'utilisation de l'IA: Liste blanche des outils autorisés, liste noire des types de données sensibles.
  3. Établir un plan de formation: Au moins une sensibilisation trimestrielle à la protection des données pour tous les employés.
  4. Contrôles techniques: Déploiement de systèmes DLP (prévention de la perte de données) qui filtrent les entrées d'IA.

Indicateurs à surveiller:

  • Fréquence d'utilisation des outils d'IA par département
  • Nombres et taux de participation aux formations
  • Rapports d'incidents de détournement de données
  • Résultats des audits de conformité

Assurance qualité et vérification des faits

  • [x] Déclarations centrales vérifiées: taux de 94 %, taux de 38 %, données d'enquête (Global Privacy Test 2025)
  • [x] Données non confirmées identifiées: nombre de participants suisses non divulgué de manière transparente ⚠️
  • [x] Recherche Web effectuée: cohérence avec le communiqué NordVPN vérifiée
  • [x] Vérification des biais: enquête provenant d'un fournisseur VPN (le fournisseur a un intérêt commercial); néanmoins, les risques de protection des données sont réalistes

Recherche supplémentaire

⚠️ Remarque: Aucune source supplémentaire dans les métadonnées. Les sources recommandées seraient:

  • Données officielles du Préposé fédéral à la protection des données (PFPDT) sur la conformité de l'IA
  • Rapports d'études de Gartner ou Forrester sur la gouvernance de l'IA
  • Études de cas d'entreprises suisses sur la sécurité de l'IA

Répertoire des sources

Source primaire:
NordVPN (2026). « Enquête NordVPN: Les Suisses et Suissesses négligent la protection des données dans l'IA » – https://www.swisscybersecurity.net/news/2026-01-28/schweizer-und-schweizerinnen-verschwitzen-datenschutz-bei-ki

Sources supplémentaires:

  • NordVPN (2025). « National Privacy Test – Rapport mondial » (67.367 participants, 192 pays)
  • Briedis, Marijus (CTO NordVPN). Déclarations sur la persistance des données d'IA et les escroqueries

Statut de vérification: ✓ Faits vérifiés le 28.01.2026


Pied de page (Avis de transparence)


Ce texte a été créé avec l'aide de Claude.
Responsabilité éditoriale: clarus.news | Vérification des faits: 28.01.2026
Remarque: L'échantillon d'enquête pour la Suisse n'est pas entièrement divulgué de manière transparente.