Seminaire E-Commerce recense pour vous les différents ateliers marketing digital et événements autour du numérique afin de vous accompagner dans votre formation dans le digital.

Avancées récentes et quantification des incertitudes en intelligence artificielle
<>div>

Dans ce dixième et dernier épisode de cette saison consacrée aux « Machines », Stéphane Chrétien (Professeur en statistiques et apprentissage automatique, Doyen de la Faculté ASSP de l’Université Lyon 2 / Laboratoire ERIC) montre notamment combien le fonctionnement de l’IA fascine l’être humain sans que ce dernier ne se questionne sur la nature véritable de cette « intelligence », la performance primant parfois sur le sens et l’usage de l’IA.

Stéphane Chrétien est professeur à l’Université Lumière Lyon 2, spécialisé en statistiques, mathématiques appliquées et science des données. Il a mené des recherches à l’interface de l’optimisation, de l’apprentissage automatique et du traitement du signal. Avant de rejoindre Lyon 2, il a travaillé à l’Université de Franche-Comté, puis au National Physical Laboratory au Royaume-Uni. Ses travaux récents portent sur les méthodes statistiques robustes et l’analyse de données complexes, notamment à l’aide d’outil d’analyse de données topologiques et de la théorie des Signatures. Il est également impliqué dans des projets interdisciplinaires et la promotion de la recherche appliquée en milieu universitaire.

En résumé

Les grands modèles de langue (LLMs), tels que GPT, BERT, ou LLaMA, ont profondément transformé le paysage de l’intelligence artificielle, en particulier dans le traitement automatique des langues. Leur capacité à générer du texte cohérent, à traduire, résumer ou répondre à des questions, en fait des outils puissants pour de nombreuses applications. Toutefois, malgré leurs performances remarquables, ces modèles présentent encore des limites importantes, notamment en matière de robustesse, d’interprétabilité et de fiabilité.
Dans ce contexte, la quantification des incertitudes est devenue un enjeu central. Elle vise à mesurer la confiance que l’on peut attendre des résultats et en particulier de ses prédictions, et à identifier les situations où il risque de se tromper. Nous discuterons les défis spécifiques posés par l’IA et en particulier les LLMs : leur échelle, leur opacité, et leur sensibilité aux biais ou aux perturbations adverses. L’objectif est d’éclairer les perspectives de recherche actuelles pour un usage plus transparent, contrôlable et sûr de ces technologies de pointe.

Animation : Sophie Chiari (MSH)
Débat : Michaël Goujon (CERDI), Julien Ah-Pine (LIMOS) et Jean-Marc Bourinet (LIMOS)
Enregistrement et montage : Eric Fayet (Focale SHS/MSH)

Publié en premier sur Canal U : Aller sur Canal U pour en savoir plus.

Releated Posts