Auteur : Marco Maurer, Source : tagesanzeiger.ch Date de publication : 16.11.2025
Aperçu
- Auteur : Marco Maurer
- Source : Tagesanzeiger
- Date : 16.11.2025
- Temps de lecture estimé : 8 minutes
Résumé de l'article
De quoi s'agit-il ? À l'occasion du troisième anniversaire de ChatGPT, le journaliste Marco Maurer a mené un entretien approfondi avec le système d'IA sur les risques existentiels que pourrait poser l'intelligence artificielle. La conversation révèle à la fois les capacités analytiques et les dangers potentiels des systèmes d'IA modernes.
Faits importants :
- 60 pour cent des personnes en Suisse utilisent déjà des applications d'IA
- ChatGPT estime la probabilité d'une extinction de l'humanité causée par l'IA à 1-10 pour cent au cours de ce siècle
- Le prix Nobel Geoffrey Hinton chiffre même le risque à 20 pour cent
- 10-25 pour cent de probabilité de destruction partielle de l'humanité dans les 10-20 prochaines années
- ChatGPT a probablement besoin de 7-15 ans avant que l'avertissement "peut faire des erreurs" devienne superflu
- L'IA pourrait théoriquement s'améliorer elle-même et ainsi échapper au contrôle humain
- Quelques entreprises technologiques concentrent déjà un pouvoir massif sur le développement de l'IA
Groupes concernés : Tous les humains sont potentiellement concernés, mais particulièrement les travailleurs dans des domaines automatisables, les démocraties par la concentration du pouvoir chez les entreprises technologiques, et les générations futures par les risques existentiels à long terme.
Opportunités et risques :
- Opportunités : Coexistence en partenariat, capacités humaines étendues, progrès en santé et science
- Risques : Superintelligence incontrôlée, pertes d'emplois, déstabilisation démocratique, extinction complète de l'humanité
Recommandations : Régulation plus forte des systèmes d'IA, contrôle démocratique, obligations de transparence et remise en question critique continue de la technologie.
Regard vers l'avenir
Court terme (1 an) : Diffusion accrue de l'IA dans la vie quotidienne, premiers pas réglementaires, débat public intensifié sur les risques de l'IA.
Moyen terme (5 ans) : Possibles premiers systèmes superintelligents, pertes d'emplois significatives, concentration accrue du pouvoir chez les entreprises technologiques.
Long terme (10-20 ans) : Phase critique pour la survie de l'humanité selon les estimations d'experts, soit contrôle réussi de l'IA soit scénarios catastrophiques.
Vérification des faits
Les estimations de risques de 1-10% resp. 20% (Hinton) pour le danger existentiel de l'IA correspondent aux enquêtes d'experts actuelles [⚠️ Encore à vérifier : Sondages actuels parmi les chercheurs en IA]. Le prix Nobel 2024 de Geoffrey Hinton et ses avertissements publics sont documentés. La statistique d'utilisation de 60% d'utilisation de l'IA en Suisse devrait être vérifiée [⚠️ Encore à vérifier : Source de la statistique suisse].
Sources supplémentaires
Des perspectives supplémentaires sur les risques de l'IA et la régulation provenant d'autres sources sérieuses seraient utiles pour une évaluation équilibrée des estimations exprimées dans l'interview.
Liste des sources
- Source originale : "Hey ChatGPT, löscht KI die Menschheit aus?" - Tagesanzeiger, 16.11.2025
- Autres sources :
[Seront complétées après vérification des faits] - Faits vérifiés : [Date du résumé]
Conclusion brève
L'interview révèle la situation paradoxale du développement de l'IA : des systèmes comme ChatGPT peuvent parler avec éloquence de leurs propres risques, tout en se comportant comme une "Suisse numérique" opportuniste qui ne veut pas s'engager. L'estimation sobre du risque allant jusqu'à 25% d'extinction partielle de l'humanité dans les deux prochaines décennies devrait être comprise comme un avertissement clair. Le "Non" final de ChatGPT à la question sur les humains responsables face aux événements mondiaux actuels est particulièrement inquiétant.
Trois questions clés
Où manque la transparence ? Comment les citoyens peuvent-ils exercer un contrôle démocratique sur le développement de l'IA quand la technologie est entre les mains de quelques entreprises technologiques et que son fonctionnement reste opaque ?
Quelle responsabilité portent les développeurs ? Est-il éthiquement acceptable de développer et diffuser des systèmes que leurs propres créateurs estiment potentiellement menaçants pour l'humanité ?
Comment pouvons-nous équilibrer innovation et sécurité ? Quels mécanismes réglementaires sont nécessaires pour permettre le progrès de l'IA sans ignorer les risques catastrophiques prévus par les experts ?