Auteur: clarus.news

Mode rédactionnel: CLARUS_ANALYSIS Recommandation d'indexation: INDEX Langue/Rôle: FULL_ANALYSIS Date de vérification des faits: 2026-03-07

Résumé

Les autorités policières allemandes utilisent de plus en plus le logiciel d'analyse basé sur l'IA de Palantir pour l'analyse de données dans les enquêtes. Le système promet des investigations plus rapides en cas de crimes graves et de terrorisme, mais suscite des préoccupations considérables en matière de protection des données et de politique. La Bavière et d'autres États fédéraux ont déjà introduit des variantes de logiciels, tandis que le niveau fédéral cherche des alternatives et des questions de contrôle critiques restent en suspens.

Personnes

  • Jan Deggebrot (Commissaire principal de police criminelle, Bureau régional de la police criminelle de Bavière)
  • Martin Thüne (Professeur de criminologie, critique de Palantir)
  • Peter Thiel (Investisseur Palantir, partisan de la technologie de surveillance)

Thèmes

  • Police IA et analyse de données automatisée
  • Protection des données et autodétermination informationnelle
  • Souveraineté numérique face aux sociétés américaines
  • Limites constitutionnelles de la surveillance de masse

Lead Clarus

Les autorités policières allemandes recourent de plus en plus au logiciel Palantir pour relier les différentes bases de données policières—une tendance qui accélère les enquêtes en matière de terrorisme et d'attaques à main armée, tout en présentant des risques massifs en termes de protection des données et de contrôle. En 2023, la Cour constitutionnelle fédérale a déclaré inconstitutionnelles certaines pratiques en Hesse. La tension centrale : tandis que les enquêteurs demandent un accès plus rapide à plus de données, les responsables de la protection des données et les juristes avertissent contre la surveillance de masse incontrôlée par des sociétés privées de défense américaines.

Résumé détaillé

Les logiciels Vera (Bavière), Hessen Data (Hesse) et DAR (Rhénanie-du-Nord-Westphalie) sont des variantes de systèmes Palantir qui regroupent automatiquement les informations provenant de diverses sources de données policières. Le commissaire principal de police criminelle Jan Deggebrot du Bureau régional de la police criminelle de Bavière décrit les gains concrets d'utilisation : en cas de menaces aiguës (attentats, fusillades de masse, terrorisme), les enquêteurs peuvent déterminer en quelques minutes au lieu d'heures si un ou plusieurs auteurs agissent—crucial pour la tactique d'intervention et la sécurité publique. Depuis septembre 2024, Vera a été utilisé environ 140 fois en Bavière.

Cependant : La Bavière n'a pas activé les modules d'IA. Selon la loi sur les tâches policières, les systèmes auto-apprenants, les conclusions automatisées et la connexion Internet sont interdits. Cela rend le logiciel bien moins puissant que sa variante américaine auprès de l'agence d'immigration ICE, qui utilise massivement les données de téléphonie mobile, la surveillance des médias sociaux et la reconnaissance faciale.

La Cour constitutionnelle fédérale a clarifié en 2023 : les bases de données ne peuvent pas être liées arbitrairement. Le droit fondamental à l'autodétermination informationnelle exige l'affectation à une fin spécifique—les données recueillies pour les enquêtes terroristes ne peuvent pas être consultées pour les vols automobiles. En Hesse, ces limites ont été dépassées ; le paysage juridique reste tendu. La Rhénanie-du-Nord-Westphalie a signalé en 2025 que plus de 2000 agents avaient utilisé le logiciel—sans documentation claire de la conformité constitutionnelle.

Le Bade-Wurtemberg a approuvé Vera en 2025 comme "solution de transition" jusqu'en 2030, puis souhaite passer à des systèmes européens. Des critiques comme Konstanze Kurz (Chaos Computer Club) critiquent une nouvelle clause d'expérimentation dans la loi sur la police : les données des autorités peuvent désormais être utilisées pour la formation en IA des fournisseurs commerciaux—non collectées à l'origine à cette fin.

Énoncés clés

  • Gain d'efficacité confirmé : le logiciel Vera réduit effectivement le temps d'enquête en cas de crimes graves ; Jan Deggebrot cite des cas concrets de fusillades de masse et d'attentats.
  • La Bavière bloque l'IA : tandis que Palantir propose des modules d'IA, la Bavière n'utilise que la liaison manuelle de données—une ligne de sécurité allemande que d'autres États fédéraux ne respectent pas partout.
  • La Cour constitutionnelle fixe des limites : la Cour constitutionnelle fédérale en 2023 a interdit la collecte indifférenciée de données ; la Hesse et la Rhénanie-du-Nord-Westphalie ont partiellement violé ces exigences.
  • Le piège de la dépendance s'aggrave : 39 millions d'euros en Rhénanie-du-Nord-Westphalie pour le matériel, les logiciels, la formation. La sortie devient un problème de pétrolier ; Palantir devient de fait non interchangeable.
  • Contradiction politique : les États fédéraux prêchent la souveraineté numérique, mais poursuivent les contrats Palantir. Le niveau fédéral sous la ministre de la Justice SPD Hubig arrête le déploiement fédéral, le ministre de l'Intérieur CDU Dobrindt l'explore à nouveau.
  • Société de défense américaine comme partenaire controversé : Peter Thiel et Alex Karp de Palantir sont considérés comme sceptiques envers la démocratie ; la publiciste Marina Weissband appelle l'entreprise "design pour la surveillance totale".

Questions critiques

  1. (a) Preuve des données : en Bavière, Vera a été utilisé 140 fois depuis septembre 2024—mais combien de ces utilisations ont conduit à des condamnations définitives ou n'auraient pas eu lieu sans Vera ? Jusqu'à présent, il manque un bilan indépendant des taux de réussite.

  2. (a) Transparence des interfaces : Palantir ne révèle pas quels modèles mathématiques le logiciel reconnaît lors de la comparaison des bases de données. Comment les tribunaux peuvent-ils vérifier si les algorithmes fonctionnent de manière constitutionnelle si le code source reste secret ?

  3. (b) Conflit d'intérêts des fabricants : Palantir tire profit de chaque licence et a intérêt à présenter le logiciel comme indispensable. Qui conduit indépendamment pour vérifier si des alternatives open source allemandes ou européennes fonctionnent de manière similaire ?

  4. (b) Contrôle du contrôle : en Rhénanie-du-Nord-Westphalie, plus de 2000 agents ont utilisé Vera sans critères d'accès documentés. Qui vérifie régulièrement que seuls les enquêteurs ayant des soupçons appropriés accèdent au logiciel ?

  5. (c) Causalité dans les prévention : la Hesse attribue la prévention du terrorisme en 2018 à Hessen-Data. Une autre méthode (interrogation classique de base de données, surveillance téléphonique) aurait-elle pu produire le même résultat ? Fait défaut l'hypothèse alternative.

  6. (d) Risque d'abus en cas de changement de pouvoir : si un parti comme l'AfD venait à diriger les ministères de l'Intérieur en Allemagne de l'Est, un logiciel semblable à Vera pourrait être dirigé contre les représentants des médias ou les opposants. Existe-t-il des verrous techniques ?

  7. (d) Clause d'expérimentation du Bade-Wurtemberg : l'autorisation d'utiliser les données policières pour la formation en IA a été introduite sans consultation des personnes concernées. Les conseils de surveillance peuvent-ils "extraire" légalement ces données si les tribunaux cassent la clause ultérieurement ?

  8. (d) Les alternatives européennes sont-elles mûres ? Les systèmes mentionnés (Almato, One Data, Secunet, Unite) n'ont pas encore été testés à plus grande échelle. Quelle est la réalité du plan du Bade-Wurtemberg de passer à un logiciel européen d'ici 2030, sans coûts de migration de millions ?


Autres informations

  • Scandale Draft One (USA) : le logiciel de police d'Axon (basé sur OpenAI) a mal transcrit les enregistrements de caméra corporelle ; il a décrit un agent comme une « grenouille » parce qu'un film Disney jouait en arrière-plan. Avertissement contre la confiance aveugle dans la transcription IA pour les enquêtes.
  • Débat UE sur ChatGPT-Claude : OpenAI accepte l'utilisation militaire américaine pour le pilotage de drones ; Anthropic (Claude) refuse. Montre la fragmentation de la réglementation de la technologie de surveillance IA.

Références bibliographiques

Source primaire: KI Verstehen: KI für die Kripo – Podcast Deutschlandfunk – Publié: 2026-03-05

Sources complémentaires (référencées dans la transcription):

  1. Cour constitutionnelle fédérale – Jugement sur le logiciel Palantir en Hesse et Hambourg (2023)
  2. Deutschlandfunk – Histoire de Peter Thiel (Long-Form)
  3. Conférence des ministres de l'Intérieur – Agenda de Sarrebruck (Numérisation Police, env. 2015)
  4. Programme fédéral-régional P20 (Modernisation de l'informatique policière)

Statut de vérification: ✓ 2026-03-07


Ce texte a été créé avec le soutien d'un modèle d'IA.
Responsabilité éditoriale: clarus.news | Vérification des faits: 2026-03-07