Alexei Grinbaum
Directeur de recherche, président du Comité opérationnel d’éthique du numérique du CEA
La fin de l’intelligence humaine : obsolescence programmée ?
Directeur de recherche, président du Comité opérationnel d’éthique du numérique du CEA
Philosophe et mathématicien, professeur émérite à Sorbonne Université et membre honoraire de l’Institut universitaire de France
Médiateur scientifique à l’École Polytechnique Fédérale de Lausanne et PDG de l’entreprise de cybersécurité Calicarpa
Pour la quatrième édition de ce cycle, les « Débats au cœur de la science » se penchent sur le thème « Explorer ». Pour cette quatrième séance, des astrophysiciens nous parlent de la découverte des exoplanètes, des méthodes utilisées pour les détecter, depuis le sol et depuis l’espace, et nous expliquent pourquoi ces mondes lointains, susceptibles d’abriter la vie extraterrestre, nous fascinent tant.
En écho à l’exposition Apocalypse. Hier et demain, la cinquième édition du cycle « Débats au cœur de la science » est consacrée au thème de la fin. Cette première table ronde réunit trois chercheurs pour un dialogue interdisciplinaire sur la question de la fin de l’intelligence humaine.
Aujourd’hui, l’intelligence artificielle est une réalité et se démocratise avec des outils comme ChatGPT, Midjourney ou DeepSeek. Le cerveau humain est-il en passe d’être relégué par la puissance de calcul et les capacités dorénavant décuplées de la machine, qui sont sans commune mesure avec celles des premiers ordinateurs ? Le cerveau humain a-t-il atteint ses limites ou reste-t-il plus fort que l’intelligence artificielle ?
Rencontre animée par Caroline Lachowsky, journaliste scientifique à RFI
En partenariat avec France Médias Monde et RFI
Présentation des intervenants
Alexei Grinbaum est directeur de recherche, président du Comité opérationnel d’éthique du numérique du CEA. Il est également expert de la Commission européenne. Il s’interroge notamment sur l’avènement des agents conversationnels, les chatbots, ces machines avec lesquelles nous échangeons quotidiennement. Faut-il faire confiance au système d’intelligence artificielle qui les gouverne ? Un monde semble émerger, dans lequel les humains n’ont plus le monopole de l’expression linguistique. Il développe ces thèmes dans cet ouvrage paru récemment : Paroles de machines, dialoguer avec une IA (Humenscience, 2023).
Daniel Andler est philosophe et mathématicien. Professeur émérite à Sorbonne Université et membre honoraire de l’Institut universitaire de France, il a été élu à l’Académie des sciences morales et politiques en décembre 2016, où il dirige depuis 2019 le cycle d’études « Technologies émergentes et Sagesse collective » (TESaCo) avec le soutien de la Fondation Simone et Cino Del Duca. Dans son dernier ouvrage, Intelligence artificielle, intelligence humaine : la double énigme (Gallimard, 2023), il examine la question : l’Intelligence artificielle représente -t-elle une menace pour l’intelligence humaine ? Il estime que l’IA est capable de résoudre des problèmes complexes avec davantage de célérité que les hommes. En revanche, elle ne possède pas les traits distinctifs des humains, qui font leur force : réfléchir en situation, comprendre un contexte, élaborer une problématisation.
Lê Nguyên Hoang est diplômé de l’Ecole Polytechnique, docteur en mathématiques, médiateur scientifique à l’Ecole Polytechnique Fédérale de Lausanne et PDG de l’entreprise de cybersécurité Calicarpa. Il mène une activité de recherche sur l’IA et est engagé dans la démarche de vulgarisation des mathématiques et de l’informatique : il a créé Science4All.org et anime la chaîne YouTube Science4All, qui propose des séries de vidéos sur des thèmes pointus, comme la relativité générale, l’infini et la démocratie. Il est coauteur du livre La Science à Contrepied (Belin, 2017).