Conférence
Chapitres
Notice
Date de réalisation
Lieu de réalisation

MSH de Clermont-Ferrand

Langue :
Français
Crédits
Stéphane Chrétien (Intervention)
Détenteur des droits
MSH de Clermont-Ferrand
Conditions d'utilisation
Droit commun de la propriété intellectuelle
DOI : 10.60527/7bks-a808
Citer cette ressource :
Stéphane Chrétien. ClermontMsh. (2025, 11 juin). Avancées récentes et quantification des incertitudes en intelligence artificielle , in Saison 4 (2024-2025) - Machines. [Podcast]. Canal-U. https://doi.org/10.60527/7bks-a808. (Consultée le 15 juillet 2025)

Avancées récentes et quantification des incertitudes en intelligence artificielle

Réalisation : 11 juin 2025 - Mise en ligne : 23 juin 2025
  • document 1 document 2 document 3
  • niveau 1 niveau 2 niveau 3
Descriptif

Dans ce dixième et dernier épisode de cette saison consacrée aux « Machines », Stéphane Chrétien (Professeur en statistiques et apprentissage automatique, Doyen de la Faculté ASSP de l'Université Lyon 2 / Laboratoire ERIC) montre notamment combien le fonctionnement de l'IA fascine l'être humain sans que ce dernier ne se questionne sur la nature véritable de cette "intelligence", la performance primant parfois sur le sens et l'usage de l'IA.

Stéphane Chrétien est professeur à l’Université Lumière Lyon 2, spécialisé en statistiques, mathématiques appliquées et science des données. Il a mené des recherches à l’interface de l’optimisation, de l’apprentissage automatique et du traitement du signal. Avant de rejoindre Lyon 2, il a travaillé à l'Université de Franche-Comté, puis au National Physical Laboratory au Royaume-Uni. Ses travaux récents portent sur les méthodes statistiques robustes et l'analyse de données complexes, notamment à l'aide d'outil d'analyse de données topologiques et de la théorie des Signatures. Il est également impliqué dans des projets interdisciplinaires et la promotion de la recherche appliquée en milieu universitaire.

En résumé

Les grands modèles de langue (LLMs), tels que GPT, BERT, ou LLaMA, ont profondément transformé le paysage de l’intelligence artificielle, en particulier dans le traitement automatique des langues. Leur capacité à générer du texte cohérent, à traduire, résumer ou répondre à des questions, en fait des outils puissants pour de nombreuses applications. Toutefois, malgré leurs performances remarquables, ces modèles présentent encore des limites importantes, notamment en matière de robustesse, d’interprétabilité et de fiabilité.
Dans ce contexte, la quantification des incertitudes est devenue un enjeu central. Elle vise à mesurer la confiance que l'on peut attendre des résultats et en particulier de ses prédictions, et à identifier les situations où il risque de se tromper. Nous discuterons les défis spécifiques posés par l'IA et en particulier les LLMs : leur échelle, leur opacité, et leur sensibilité aux biais ou aux perturbations adverses. L’objectif est d’éclairer les perspectives de recherche actuelles pour un usage plus transparent, contrôlable et sûr de ces technologies de pointe.

Animation : Sophie Chiari (MSH)
Débat : Michaël Goujon (CERDI), Julien Ah-Pine (LIMOS) et Jean-Marc Bourinet (LIMOS)
Enregistrement et montage : Eric Fayet (Focale SHS/MSH)

Intervention

Dans la même collection

Sur le même thème