Auteur: clarus.news

Résumé

Sascha Lobo analyse dans ce podcast les voix les plus influentes du débat allemand sur l'intelligence artificielle. De l'informaticienne Katharina Zweig à l'entrepreneuse Kenza Aizidabu en passant par la bioéthicienne Alena Büx, dix personnalités sont présentées, qui façonnent de manière décisive la perception publique de l'IA en Allemagne. Le débat est décrit comme l'un des instruments démocratiques les plus importants, ayant des effets directs sur la politique, l'économie et la société. Les thèmes centraux sont la souveraineté numérique, le courage dans l'adoption de la technologie et la nécessité de comprendre l'IA comme un phénomène dynamique en constante évolution.

Personnes

Thèmes

  • Intelligence artificielle et débats sociétaux
  • Souveraineté numérique et indépendance de l'Allemagne
  • Éthique de l'IA et détermination des objectifs
  • Éducation et leadership en IA
  • Régulation versus innovation
  • Entrepreneuriat et investissements en IA
  • Pensée critique et optimisme technologique
  • Mittelstand et transformation numérique

Résumé détaillé

Le pouvoir des débats

Sascha Lobo affirme dans son introduction que les débats après les élections sont l'instrument démocratique le plus important. Ils ne façonnent pas seulement les lois et les réglementations au niveau régional, national et européen, mais influencent aussi l'humeur publique, la pression perçue sur la politique et les entreprises, ainsi que l'attitude des citoyens aux urnes. Le débat sur l'IA est particulièrement puissant car il s'attaque à l'une des transformations technologiques les plus importantes de l'histoire. Contrairement aux débats technologiques antérieurs en Allemagne, Lobo observe une plus grande qualité et une plus grande participation des personnes âgées et de celles ne travaillant pas directement dans le secteur.

Cependant, les débats technologiques antérieurs en Allemagne présentent également des problèmes : le débat sur la protection des données a débouché en 2018 sur le RGPD, dont la mise en œuvre s'est transformée en un « monstre bureaucratique ». D'autres pays de l'UE sont moins freinés dans leur capacité d'innovation, bien que le même règlement s'applique. Cela montre à quel point le débat est important pour l'interprétation pratique des lois.

Katharina Zweig : l'IA comme cible mouvante

La professeure en informatique Katharina Zweig de l'Université technique Kaiserslautern-Landau dirige le Laboratory for Algorithm Accountability et a cofondé la plateforme critique Algorithm Watch. Elle définit l'IA comme « tous les processus informatiques qui nécessiteraient de l'intelligence s'ils étaient traités par l'homme » – une définition intentionnellement vague car l'intelligence humaine est également difficile à définir.

La thèse centrale de Zweig : l'IA est une « cible mouvante ». Ce qui compte aujourd'hui comme de l'IA devient demain une technologie de routine (comme la recherche d'images, qui était un objectif d'IA dans les années 1990). Cela signifie que le débat sur l'IA doit être constamment mis à jour et qu'il est impossible de prendre une position une fois pour toutes et de la maintenir. Cette réalisation mène à la phrase de Hans-Georg Gadamer : « Une conversation suppose que l'autre personne pourrait avoir raison. » C'est crucial pour le débat sur l'IA – il faut être ouvert au fait que les nouvelles technologies ou les nouveaux arguments remettent en question votre propre position.

Kenza Aizidabu : leadership en IA et souveraineté numérique

Kenza Aizidabu, une ingénieure allemande ayant travaillé chez T-Systems, IBM et l'entreprise logistique Fiege, relie directement le leadership en IA à la souveraineté numérique. Elle ne comprend pas la souveraineté numérique comme une autarcie, mais plutôt comme la flexibilité et le contrôle des données et des décisions.

Son point central : sans un solide leadership en IA, il y a un risque de dépendance vis-à-vis des plates-formes externes, des algorithmes de boîte noire opaques et des valeurs étrangères. Les bons leaders s'appuient sur les compétences stratégiques, les garde-fous éthiques et les capacités propres. Aizidabu souligne la dimension géopolitique – 90 pour cent des puces pertinentes pour l'IA sont fabriquées à Taïwan, ce qui représente une énorme dépendance.

Lobo souligne que le leadership en IA ne nécessite pas seulement 17 personnes en Allemagne, mais qu'il doit être combiné avec des instruments et des plates-formes propres. L'éducation et l'habilitant des gens à utiliser l'IA de manière sensée est central. L'Allemagne discute actuellement plutôt de l'interdiction des téléphones portables dans les écoles, alors qu'elle devrait intégrer l'IA plus rapidement dans la vie scolaire.

Philipp Klöckner : investissements dans l'indépendance européenne en IA

Philipp Klöckner apporte la perspective d'investissement. L'entrepreneur et investisseur, qui a façonné plus de 100 startups, affirme que jusqu'à présent, trop d'investissements ont été dirigés vers les modèles fondamentaux et les centres de données, tandis que d'autres ingrédients sont sous-investis.

Les recommandations concrètes de Klöckner pour l'indépendance européenne en IA :

  • La robotique humanoïde et industrielle
  • De nouvelles plateformes de puces (puces thermodynamiques ou photoniques)
  • Les entreprises qui préparent et gèrent les données pour l'IA
  • La combinaison de modèles open-source avec les sciences de la vie et la fabrication

Son point sur les connaissances de domaine est crucial : les petites et moyennes entreprises allemandes ont collecté des données vieilles de 20-25 ans que ChatGPT ne trouve pas sur Internet. Si plusieurs entreprises s'unissent, ces connaissances de domaine combinées avec l'IA peuvent devenir un pilier économique.

Cependant, Lobo avertit : la transformation de l'IA coûte énormément d'argent, et les essais sont plus chers qu'en Allemagne n'est habituel. Le débat est décisif car il détermine, chez les décideurs qui n'ont souvent pas d'expertise technique, s'ils ont peur de l'IA ou s'ils développent du courage.

Fabian Westerheide : optimisme plutôt que pessimisme

Fabian Westerheide, fondateur de l'événement Rise of AI et connu comme capital-risqueur, lutte contre le pessimisme en matière d'IA. Sa thèse centrale : l'Allemagne et l'Europe ne peuvent pas concurrencer les États-Unis, mais devraient apprendre de la Chine et investir dans la recherche, l'éducation et l'application généralisée.

Westerheide souligne que les prédictions sombres dans les débats fonctionnent comme une excuse – quand les pessimistes disent que c'est de toute façon sans espoir, d'autres se figent dans la peur et ne commencent même pas. C'est nuisible. Son contre-pôle est une perspective positive combinée à une analyse sobre. Lobo fait référence au livre de 1956 « Arbeit » dans lequel il a appelé à l'indépendance dans le numérique. Les erreurs d'évaluation sont moins importantes que le courage qu'elles contiennent. L'Allemagne doit avoir du courage – comme puissance secondaire en matière technologique.

Nicole Büttner : innovation avant appréhensions

Nicole Büttner, ancienne entrepreneuse en IA et maintenant secrétaire générale du FDP, formule trois leviers pour la souveraineté numérique :

  1. Innovation avant appréhensions : utiliser systématiquement les espaces d'expérimentation et les bacs à sable du règlement sur l'IA
  2. Sécurité juridique : différentes lois doivent être compatibles ; l'incertitude paralyse les entreprises
  3. Moins d'obligations documentaires : elles ressemblent à un carnet d'attente numérique permanent

Büttner affirme que le prochain ChatGPT ne peut venir que d'Allemagne si les conditions cadre réglementaires deviennent plus libres. Un tiers du temps de travail des employés de startups est actuellement consacré à la conformité – c'est disproportionné. La souveraineté numérique nécessite non seulement les bonnes règles, mais aussi l'absence de mauvaises règles.

Constanze Kurz : perspective critique contraire

Constanze Kurz, informaticienne doctorante et porte-parole du conseil d'administration du Chaos Computer Club, formule les perspectives contraires nécessaires. Elle avertit contre des entreprises comme Palantir, qui présentent des risques énormes pour la souveraineté des données, la souveraineté numérique et les droits fondamentaux, mais sont néanmoins utilisées par les autorités allemandes.

Son accent est mis sur le droit fondamental à l'autodétermination informationnelle, qui pourrait être considérablement restreint par l'IA. Contrairement à Nicole Büttner, Kurz n'est pas une fanatic de la dérégulation, mais ses arguments sont toujours factuellement fondés et clairs. Lobo souligne que les bons débats surgissent de ces tensions – les deux positions ont du fondement, et c'est ce qui rend le débat passionnant.

Alena Büx : éthique de l'IA et détermination des objectifs

Alena Büx, bioéthicienne et ancienne présidente du Conseil éthique allemand (2020-2024), porte l'accent sur la détermination des objectifs dans l'éthique de l'IA. Elle critique le fait que trop peu soit dit sur les objectifs que l'IA devrait remplir.

L'IA est une véritable technologie à double usage : elle peut sauver ou détruire des vies. Le même système peut construire un site Web ou piloter un drone assassin. Cela nécessite de décider ensemble : quelle application rend notre vie meilleure, laquelle la rend pire ?

Büx rompt avec la logique classique « opportunités-risques » de l'éthique de l'IA et appelle plutôt à un débat sociétal conscient des objectifs. Lobo est d'accord : de nombreux débats manquent de but. Il faut un espace objectif : que voulons-nous de l'IA ? Où devrions-nous déployer l'IA, où pas ? Ce n'est qu'alors que le débat peut être productif.

Miriam Meckel : pensée critique plutôt que débats sur l'AGI

Miriam Meckel, spécialiste en sciences de la communication et professeure à l'Université de Saint-Gall, critique le débat sur l'Intelligence Générale Artificielle (AGI) comme détournement et piloté par les intérêts. Ce débat provient de la Silicon Valley et sert à détourner l'attention des vrais problèmes de l'application actuelle de l'IA.

Son point : si on dit constamment que l'IA va tous nous anéantir, personne n'est plus responsable. C'est de l'eau au moulin de ceux qui veulent façonner l'IA sans véritable participation. Au lieu de cela, Meckel appelle à la pensée critique – au sens classique-philosophique : je dois moi-même peser quelles parties de la technologie m'aident et lesquelles me nuisent.

Lobo souligne : la pensée critique est la base de la souveraineté numérique. Il ne s'agit pas de tout critiquer, mais de décider en toute autonomie.

Lea Steinacker : courage et autonomie européenne

Lea Steinacker, sociologue et auteure, formule trois investissements nécessaires :

  1. Investissements massifs dans les compétences : les gens doivent comprendre, utiliser et façonner l'IA
  2. Expérimentation au niveau des applications : en particulier dans les administrations et le mittelstand, sans être constamment freiné par la bureaucratie
  3. Écosystème d'IA vivant au lieu de superstars : au lieu de simplement copier les grands acteurs, miser sur les forces européennes

Steinacker souligne les valeurs européennes : l'IA digne de confiance, les applications industrielles, les systèmes explicables, la nouvelle collaboration homme-machine. La prochaine grande idée en IA n'a pas besoin d'être copiée – elle peut émerger ici.

Le terme central de sa contribution est courage. Lobo se souvient de son livre de 2006 « Arbeit », dans lequel il a appelé à l'indépendance dans le numérique. Les erreurs