Abdellah Fourtassi

Maître de conférences, HDR en Informatique
Aix-Marseille University, LIS UMR7020 CNRS, Marseille, France

Speaker 1

Les grands modèles de langage peuvent-ils apprendre comme les enfants ?

Les grands modèles de langage comme ChatGPT ont transformé l’intelligence artificielle, mais nécessitent des quantités massives de données — souvent des centaines de milliards de mots — pour atteindre un haut niveau de performance. En comparaison, les enfants humains acquièrent le langage à partir de seulement quelques millions de mots. Cet écart a suscité une nouvelle ligne de recherche visant à développer des modèles capables d’apprendre à partir d’un volume de données plus proche de celui des enfants. En explorant comment des systèmes peuvent apprendre le langage à partir de données limitées et naturelles, ces travaux offrent des perspectives utiles à la fois pour améliorer les modèles d’IA et pour mieux comprendre l’apprentissage humain. Cette recherche réunit des spécialistes de l’IA et des sciences cognitives, avec un double objectif : rendre les systèmes d’apprentissage plus efficaces en données, et mieux comprendre comment le langage se développe chez l’enfant dans des contextes d’apprentissage écologiques.