Fondements et frontières de l’IA
Le 28 janvier prochain, l’EPITA aura l’honneur d’accueillir des chercheurs de tout premier plan à l’occasion d’une matinée scientifique exceptionnelle, dédiée aux avancées majeures de la recherche en intelligence artificielle.
Au programme, trois conférences scientifiques pour interroger les fondements théoriques, les frontières scientifiques et les enjeux contemporains de l’intelligence artificielle avec Éric Moulines, professeur de statistique à l’EPITA, Michael I. Jordan, professeur en apprentissage automatique, statistiques et intelligence artificielle à l’Université de Berkeley, et Stéphane Mallat, professeur au Collège de France et à l’École normale supérieure, et médaille d’or du CNRS.

Eric Moulines est professeur à l’EPITA, Chair du Dpt Machine Learning à Mohamed Bin Zayed University of AI e.t membre de l’Académie des Sciences. Ses travaux se situent à l’intersection des statistiques computationnelles, du traitement du signal et de l’apprentissage machine. Ses recherches actuelles portent sur les modèles de diffusion et leur utilisation pour les problèmes inverses bayésiens, l’apprentissage fédéré et distribué, notamment, l’apprentissage par renforcement fédéré, et la quantification d’incertitude dans les grands modèles d’IA par des approches conformelles. Ancien directeur de Hi! PARIS, centre interdisciplinaire d’intelligence artificielle associant l’Institut Polytechnique de Paris et HEC, il a au long de sa carrière largement contribué au rapprochement entre mathématiques, statistique et intelligence artificielle, tant sur le plan théorique qu’applicatif.
Son intervention, intitulée Quantification de l’incertitude en intelligence artificielle : méthodes conformelles et transport optimal pour des garanties statistiques fiables, s’intéressera à un enjeu central de l’IA moderne : la fiabilité des prédictions.
Les progrès récents de l’intelligence artificielle ont permis le développement de modèles prédictifs d’une grande expressivité, capables de capturer des dépendances complexes dans des données de haute dimension. Toutefois, ces performances s’accompagnent souvent d’une absence de garanties explicites quant à l’incertitude associée aux prédictions, limitant leur usage dans des contextes critiques. Ce séminaire se propose d’examiner des approches statistiques récentes visant à doter les modèles d’IA de mécanismes de prédiction fiable, avec garanties formelles en échantillon fini.
Un premier volet portera sur la prédiction conformelle, un cadre distribution-free permettant de construire des ensembles de prédiction valides indépendamment du modèle sous-jacent. Nous discuterons en particulier la distinction fondamentale entre validité marginale et validité conditionnelle, ainsi que les impossibilités théoriques associées à cette dernière. Nous présenterons ensuite des méthodes récentes fondées sur la transformation et la rectification de scores de conformité, qui améliorent significativement la couverture conditionnelle tout en préservant la validité marginale exacte .
Dans un second volet, nous aborderons la construction d’ensembles de prédiction multivariés à l’aide du transport optimal. En s’appuyant sur des quantiles et des rangs multivariés conditionnels appris via des réseaux neuronaux convexes, cette approche permet de définir des régions de prédiction conformelles adaptées à la géométrie des distributions conditionnelles, dépassant les limites des méthodes coordonnées ou isotropes .
Le séminaire mettra en perspective ces deux contributions, en soulignant leur complémentarité et leur rôle central dans le développement de méthodes d’IA statistiquement fiables et interprétables.
Michael I. Jordan est professeur à l’Université de Californie à Berkeley et directeur de recherche à INRIA, lauréat du concours « Choose France ». Il est l’un des pères fondateurs de l’IA et l’un des chercheurs les plus influents au monde en intelligence artificielle, apprentissage automatique et statistique.
Ses travaux ont profondément marqué des domaines clés tels que les modèles probabilistes, l’apprentissage statistique, l’optimisation à grande échelle et les fondements théoriques du machine learning moderne. Il est également connu pour ses réflexions critiques sur l’IA, en particulier sur la distinction entre intelligence artificielle, modélisation statistique et systèmes décisionnels, et sur les enjeux scientifiques et sociétaux liés à leur déploiement. Il est lauréat de très nombreux prix très prestigieux et membres de nombreuses académies.
Dans son intervention, Michael I. Jordan proposera une lecture de l’intelligence artificielle qui considère les systèmes d’apprentissage contemporains, en particulier les grands modèles de langage, comme des artefacts collectifs, issus de dynamiques humaines à large échelle.
Il montrera que l’intelligence, humaine comme artificielle, est indissociable des contextes sociaux, économiques et culturels dans lesquels elle s’inscrit.
Il s’appuiera sur l’articulation de trois styles de pensée, computationnel, inférentiel et économique, pour aborder la conception de systèmes d’IA robustes.
Cette approche vise à fournir un cadre conceptuel pour une IA plus fiable, responsable et socialement alignée.
Stéphane Mallat est professeur au Collège de France et à l’École normale supérieure et membre de l’Académie des sciences.
Il est mondialement reconnu pour ses travaux fondateurs en analyse multi-échelle et leurs applications aux signaux et aux images. Il est notamment à l’origine de l’algorithme de la transformée en ondelettes discrètes, qui joue un rôle central dans de nombreux standards de traitement du signal et de la compression d’images.
Au cours des dix dernières années, ses recherches se sont concentrées sur les fondements mathématiques de l’apprentissage profond, établissant des liens féconds entre représentations multi-échelles, réseaux convolutifs et, plus récemment, intelligence artificielle générative. Il compte aujourd’hui parmi les chercheurs français les plus influents dans le domaine de l’IA. Il est le premier mathématicien appliqué à recevoir la médaille d’or du CNRS (en 2025), et est dans les chercheurs nobelisables.
Sa conférence mettra en évidence les liens profonds entre l’intelligence artificielle et les approches philosophiques de la connaissance, la neurophysiologie et la physique statistique. Les réseaux de neurones de l’intelligence artificielle sont entraînés pour estimer les réponses à des questions, par un calcul statistique. La précision de ces réponses, malgré l’explosion de l’ensemble des possibles, montre qu’ils exploitent la structure sous-jacente des problèmes. Cela constitue une forme de connaissance. On donnera un éclairage mathématique de cette structure, bien qu’elle demeure en grande partie mystérieuse.
- 9h00 – Introduction
Sylvain Goussot, Directeur Général de l’EPITA
Thierry Géraud, Directeur de la Recherche - 9h15 – Conférence scientifique
Eric Moulines, Professeur de statistiques à l’EPITA
10h00 – Pause café - 10h30 – Conférence scientifique
Michael I.Jordan, Professeur en apprentissage automatique, statistiques et intelligence artificielle à l’Université de Berkeley - 11h15 – Conférence scientifique
Stéphane Mallat, Professeur au Collège de France et professeur à l’École normale supérieure et médaille d’or du CNRS
12h00 – Cocktail déjeunatoire
Mercredi 28 janvier
9h00 – 12h00
EPITA Paris – 14/16 rue Voltaire, 94270 Le Kremlin-Bicêtre.