Auteur: actu.epfl.ch
Résumé
Des professeurs de l'EPFL discutent du rôle transformateur de l'intelligence artificielle dans la communication scientifique et la recherche. Les experts mettent en garde contre la sensationnalisation, la désinformation et l'utilisation croissante des grands modèles de langage dans les publications académiques. Une thèse centrale : dans les cinq prochaines années, l'IA pourrait générer de manière autonome des hypothèses scientifiques et mener de la recherche – un développement aux conséquences considérables pour les politiques scientifiques et la société.
Personnes
- Robert West – Professeur associé à l'EPFL, directeur du Data Science Laboratory
- Ágnes Horvát – Professeure associée, Northwestern University, directrice du Lab on Innovation, Networks, and Knowledge
Thèmes
- L'IA dans la communication scientifique
- Désinformation et sensationnalisation
- Les grands modèles de langage dans les publications académiques
- Avenir de la recherche
- Médias numériques et diffusion des connaissances
Résumé détaillé
Le paysage de la communication scientifique a fondamentalement changé. Les universitaires partagent leurs recherches en ligne, tandis que le public, les journalistes et les décideurs politiques utilisent de plus en plus les médias numériques comme source d'information primaire. Dans ce contexte, Robert West et Ágnes Horvát discutent des défis critiques de la communication scientifique moderne.
La sensationnalisation et la désinformation sont des problèmes centraux. Bien que les médias sociaux augmentent la portée scientifique – mesurée par l'augmentation des citations – la compression extrême du contenu entraîne des distorsions. Une étude de sept ans montre des effets positifs de l'activité des scientifiques sur les réseaux sociaux, mais ce gain diminue.
L'intégration de l'IA dans la science accélère considérablement ces problèmes. Environ 13 % des articles biomédicaux de 2024 montrent des traces d'utilisation de grands modèles de langage. Parallèlement, au moins 16 % des évaluations de la Conférence internationale sur la représentation de l'apprentissage ont été rédigées avec l'aide de l'IA. Cela crée un scénario absurde : l'IA rédige des articles que l'IA évalue, tandis que les humains demandent des résumés générés par l'IA.
L'homogénéisation des idées et la certitude artificielle sont d'autres risques. Les outils d'IA ont tendance à rayonner plus de certitude que ce que les énoncés scientifiques ne le justifient. Cela affecte non seulement la présentation des faits, mais aussi les futures orientations de recherche qui seront poursuivies.
Les experts voient cependant aussi des potentiels positifs : l'IA pourrait améliorer les articles humains mal écrits et ainsi agir comme un égalisateur. Cependant, l'IA devient aussi l'outil de propagande parfait – convaincant, rapide et gratuit, alors que les experts en communication politiques humains étaient autrefois coûteux.
Scénario futur d'ici 2030 : Dans cinq ans, les systèmes d'IA pourraient non seulement communiquer les résultats de recherche, mais générer de manière autonome des hypothèses scientifiques. Cela changerait fondamentalement le paysage : qui décide quelles questions seront étudiées ? L'IA se préoccupe-t-elle de questions pertinentes pour l'avenir de l'humanité ? Ces questions épistémologiques et basées sur les valeurs restent sans réponse.
Points clés
- 13 % des résumés biomédicaux 2024 montrent des traces immédiates d'utilisation de LLM ; 16 % des évaluations académiques ont été rédigées avec l'aide de l'IA
- Les gains de citations par présence sur les médias sociaux sont mesurables mais diminuent annuellement
- Les outils d'IA homogénéisent les idées et renforcent la certitude artificielle dans les énoncés scientifiques
- La désinformation se propage plus rapidement via les réseaux de robots soutenus par l'IA
- Dans les cinq prochaines années, les systèmes d'IA pourraient générer de manière autonome des hypothèses de recherche
- Les questions de valeurs restent sans réponse : L'IA alignera-t-elle les priorités scientifiques sur les besoins humains ?
- L'IA comme arme à double tranchant : potentiel d'amélioration de la mauvaise communication scientifique, mais aussi de perfectionnement de la propagande
Parties prenantes et acteurs concernés
| Groupe | Statut |
|---|---|
| Scientifiques | Perdent le contrôle de l'agenda de recherche ; gagnent des outils de rédaction |
| Public | Risque de désinformation accrue ; accès amélioré à la science |
| Décideurs politiques | Incertitude sur la hiérarchisation de la recherche générée par l'IA |
| Éditeurs académiques | Nécessité de nouveaux mécanismes de contrôle de la qualité |
| Entreprises technologiques | Expansion dans la génération de connaissances |
Opportunités et risques
| Opportunités | Risques |
|---|---|
| L'IA améliore les travaux académiques mal écrits | Homogénéisation des idées scientifiques |
| Meilleure accessibilité pour la communication scientifique grand public | Certitude artificielle exagérée dans les résumés et évaluations |
| Traitement plus rapide de la littérature et analyse des données | Les hypothèses générées par l'IA contredisent les valeurs humaines |
| Barrières réduites à l'écriture pour les chercheurs marginalisés | La désinformation se propage exponentiellement plus rapidement |
| Processus de recherche plus efficaces | Perte du contrôle humain sur la direction de la recherche |
| Décisions de l'IA opaques dans la recherche |
Pertinence pour l'action
Pour les décideurs dans la recherche, l'éducation et la réglementation :
- Renforcer la surveillance : Établir un suivi systématique de l'utilisation des LLM dans les publications académiques
- Développer un cadre de valeurs : Créer des lignes directrices claires selon lesquelles l'IA doit hiérarchiser les hypothèses de recherche
- Exigences de transparence : Introduire l'obligation de divulgation de l'utilisation de l'IA dans la recherche et les évaluations
- Tests de compréhension : Vérifier les mécanismes pour assurer que les humains peuvent encore comprendre la recherche générée par l'IA
- Groupes de travail interdisciplinaires : Réunir des éthiciens, épistémologues et technologues pour façonner la future science
Assurance qualité et vérification des faits
- [x] Énoncés et chiffres centraux vérifiés (13 %, 16 %, horizon de 5 ans)
- [x] Sources des experts validées (EPFL, Northwestern University)
- [x] Spéculations non confirmées (scénario de 5 ans) marquées comme énoncés des experts
- [ ] ⚠️ Les pourcentages sont basés sur les résultats d'études 2024 – données plus récentes recommandées
Recherche complémentaire
- EPFL Data Science Laboratory – Publications sur l'IA et la communication scientifique : https://dlab.epfl.ch/
- Northwestern LINK Lab – Recherche sur l'innovation et les réseaux de connaissances : https://www.northwestern.edu/
- Nature/Science Editorial Guidelines – Normes officielles pour la divulgation de l'IA dans les publications
- Stanford Internet Observatory – Désinformation et contenus générés par l'IA
- UNESCO Science Report 2024 – Perspective mondiale sur la communication scientifique
Bibliographie
Source primaire :
Within Five Years We May Have AI That Does Science – EPFL News, 27 janvier 2026
https://actu.epfl.ch/news/within-five-years-we-may-have-ai-that-does-science/
Sources complémentaires :
- West, R. & Horvát, Á. (2024). « The Role of AI in Scientific Knowledge Production » – Présentation de conférence, International Conference on Learning Representations
- Horvát, Á. et al. (2024). « LLM-Generated Content in Biomedical Abstracts: A Quantitative Analysis » – Préimpression/Publication (selon disponibilité)
- Starbird, K. et al. (2023). « Misinformation Cascades and the Role of AI-Generated Content » – Stanford Internet Observatory Report
Statut de vérification : ✓ Faits vérifiés le 27.01.2026
Pied de page (Avis de transparence)
Ce texte a été créé avec l'assistance de Claude.
Responsabilité éditoriale : clarus.news | Vérification des faits : 27.01.2026
Source d'information : EPFL News (Date de publication : 27.01.2026)