[Écouter le podcast]
Stéphane Chrétien est professeur à l’Université Lumière Lyon 2, spécialisé en statistiques, mathématiques appliquées et science des données. Il a mené des recherches à l’interface de l’optimisation, de l’apprentissage automatique et du traitement du signal. Avant de rejoindre Lyon 2, il a travaillé à l'Université de Franche-Comté, puis au National Physical Laboratory au Royaume-Uni. Ses travaux récents portent sur les méthodes statistiques robustes et l'analyse de données complexes, notamment à l'aide d'outil d'analyse de données topologiques et de la théorie des Signatures. Il est également impliqué dans des projets interdisciplinaires et la promotion de la recherche appliquée en milieu universitaire.
Les grands modèles de langue (LLMs), tels que GPT, BERT, ou LLaMA, ont profondément transformé le paysage de l’intelligence artificielle, en particulier dans le traitement automatique des langues. Leur capacité à générer du texte cohérent, à traduire, résumer ou répondre à des questions, en fait des outils puissants pour de nombreuses applications. Toutefois, malgré leurs performances remarquables, ces modèles présentent encore des limites importantes, notamment en matière de robustesse, d’interprétabilité et de fiabilité.
Dans ce contexte, la quantification des incertitudes est devenue un enjeu central. Elle vise à mesurer la confiance que l'on peut attendre des résultats et en particulier de ses prédictions, et à identifier les situations où il risque de se tromper. Nous discuterons les défis spécifiques posés par l'IA et en particulier les LLMs : leur échelle, leur opacité, et leur sensibilité aux biais ou aux perturbations adverses. L’objectif est d’éclairer les perspectives de recherche actuelles pour un usage plus transparent, contrôlable et sûr de ces technologies de pointe.