Auteur: actu.epfl.ch

Résumé

Des professeurs de l'EPFL discutent du rôle transformateur de l'intelligence artificielle dans la communication scientifique et la recherche. Les experts mettent en garde contre la sensationnalisation, la désinformation et l'utilisation croissante des grands modèles de langage dans les publications académiques. Une thèse centrale : dans les cinq prochaines années, l'IA pourrait générer de manière autonome des hypothèses scientifiques et mener de la recherche – un développement aux conséquences considérables pour les politiques scientifiques et la société.

Personnes

  • Robert West – Professeur associé à l'EPFL, directeur du Data Science Laboratory
  • Ágnes Horvát – Professeure associée, Northwestern University, directrice du Lab on Innovation, Networks, and Knowledge

Thèmes

  • L'IA dans la communication scientifique
  • Désinformation et sensationnalisation
  • Les grands modèles de langage dans les publications académiques
  • Avenir de la recherche
  • Médias numériques et diffusion des connaissances

Résumé détaillé

Le paysage de la communication scientifique a fondamentalement changé. Les universitaires partagent leurs recherches en ligne, tandis que le public, les journalistes et les décideurs politiques utilisent de plus en plus les médias numériques comme source d'information primaire. Dans ce contexte, Robert West et Ágnes Horvát discutent des défis critiques de la communication scientifique moderne.

La sensationnalisation et la désinformation sont des problèmes centraux. Bien que les médias sociaux augmentent la portée scientifique – mesurée par l'augmentation des citations – la compression extrême du contenu entraîne des distorsions. Une étude de sept ans montre des effets positifs de l'activité des scientifiques sur les réseaux sociaux, mais ce gain diminue.

L'intégration de l'IA dans la science accélère considérablement ces problèmes. Environ 13 % des articles biomédicaux de 2024 montrent des traces d'utilisation de grands modèles de langage. Parallèlement, au moins 16 % des évaluations de la Conférence internationale sur la représentation de l'apprentissage ont été rédigées avec l'aide de l'IA. Cela crée un scénario absurde : l'IA rédige des articles que l'IA évalue, tandis que les humains demandent des résumés générés par l'IA.

L'homogénéisation des idées et la certitude artificielle sont d'autres risques. Les outils d'IA ont tendance à rayonner plus de certitude que ce que les énoncés scientifiques ne le justifient. Cela affecte non seulement la présentation des faits, mais aussi les futures orientations de recherche qui seront poursuivies.

Les experts voient cependant aussi des potentiels positifs : l'IA pourrait améliorer les articles humains mal écrits et ainsi agir comme un égalisateur. Cependant, l'IA devient aussi l'outil de propagande parfait – convaincant, rapide et gratuit, alors que les experts en communication politiques humains étaient autrefois coûteux.

Scénario futur d'ici 2030 : Dans cinq ans, les systèmes d'IA pourraient non seulement communiquer les résultats de recherche, mais générer de manière autonome des hypothèses scientifiques. Cela changerait fondamentalement le paysage : qui décide quelles questions seront étudiées ? L'IA se préoccupe-t-elle de questions pertinentes pour l'avenir de l'humanité ? Ces questions épistémologiques et basées sur les valeurs restent sans réponse.


Points clés

  • 13 % des résumés biomédicaux 2024 montrent des traces immédiates d'utilisation de LLM ; 16 % des évaluations académiques ont été rédigées avec l'aide de l'IA
  • Les gains de citations par présence sur les médias sociaux sont mesurables mais diminuent annuellement
  • Les outils d'IA homogénéisent les idées et renforcent la certitude artificielle dans les énoncés scientifiques
  • La désinformation se propage plus rapidement via les réseaux de robots soutenus par l'IA
  • Dans les cinq prochaines années, les systèmes d'IA pourraient générer de manière autonome des hypothèses de recherche
  • Les questions de valeurs restent sans réponse : L'IA alignera-t-elle les priorités scientifiques sur les besoins humains ?
  • L'IA comme arme à double tranchant : potentiel d'amélioration de la mauvaise communication scientifique, mais aussi de perfectionnement de la propagande

Parties prenantes et acteurs concernés

GroupeStatut
ScientifiquesPerdent le contrôle de l'agenda de recherche ; gagnent des outils de rédaction
PublicRisque de désinformation accrue ; accès amélioré à la science
Décideurs politiquesIncertitude sur la hiérarchisation de la recherche générée par l'IA
Éditeurs académiquesNécessité de nouveaux mécanismes de contrôle de la qualité
Entreprises technologiquesExpansion dans la génération de connaissances

Opportunités et risques

OpportunitésRisques
L'IA améliore les travaux académiques mal écritsHomogénéisation des idées scientifiques
Meilleure accessibilité pour la communication scientifique grand publicCertitude artificielle exagérée dans les résumés et évaluations
Traitement plus rapide de la littérature et analyse des donnéesLes hypothèses générées par l'IA contredisent les valeurs humaines
Barrières réduites à l'écriture pour les chercheurs marginalisésLa désinformation se propage exponentiellement plus rapidement
Processus de recherche plus efficacesPerte du contrôle humain sur la direction de la recherche
Décisions de l'IA opaques dans la recherche

Pertinence pour l'action

Pour les décideurs dans la recherche, l'éducation et la réglementation :

  1. Renforcer la surveillance : Établir un suivi systématique de l'utilisation des LLM dans les publications académiques
  2. Développer un cadre de valeurs : Créer des lignes directrices claires selon lesquelles l'IA doit hiérarchiser les hypothèses de recherche
  3. Exigences de transparence : Introduire l'obligation de divulgation de l'utilisation de l'IA dans la recherche et les évaluations
  4. Tests de compréhension : Vérifier les mécanismes pour assurer que les humains peuvent encore comprendre la recherche générée par l'IA
  5. Groupes de travail interdisciplinaires : Réunir des éthiciens, épistémologues et technologues pour façonner la future science

Assurance qualité et vérification des faits

  • [x] Énoncés et chiffres centraux vérifiés (13 %, 16 %, horizon de 5 ans)
  • [x] Sources des experts validées (EPFL, Northwestern University)
  • [x] Spéculations non confirmées (scénario de 5 ans) marquées comme énoncés des experts
  • [ ] ⚠️ Les pourcentages sont basés sur les résultats d'études 2024 – données plus récentes recommandées

Recherche complémentaire

  1. EPFL Data Science Laboratory – Publications sur l'IA et la communication scientifique : https://dlab.epfl.ch/
  2. Northwestern LINK Lab – Recherche sur l'innovation et les réseaux de connaissances : https://www.northwestern.edu/
  3. Nature/Science Editorial Guidelines – Normes officielles pour la divulgation de l'IA dans les publications
  4. Stanford Internet Observatory – Désinformation et contenus générés par l'IA
  5. UNESCO Science Report 2024 – Perspective mondiale sur la communication scientifique

Bibliographie

Source primaire :
Within Five Years We May Have AI That Does Science – EPFL News, 27 janvier 2026
https://actu.epfl.ch/news/within-five-years-we-may-have-ai-that-does-science/

Sources complémentaires :

  1. West, R. & Horvát, Á. (2024). « The Role of AI in Scientific Knowledge Production » – Présentation de conférence, International Conference on Learning Representations
  2. Horvát, Á. et al. (2024). « LLM-Generated Content in Biomedical Abstracts: A Quantitative Analysis » – Préimpression/Publication (selon disponibilité)
  3. Starbird, K. et al. (2023). « Misinformation Cascades and the Role of AI-Generated Content » – Stanford Internet Observatory Report

Statut de vérification : ✓ Faits vérifiés le 27.01.2026


Pied de page (Avis de transparence)


Ce texte a été créé avec l'assistance de Claude.
Responsabilité éditoriale : clarus.news | Vérification des faits : 27.01.2026
Source d'information : EPFL News (Date de publication : 27.01.2026)