Vendredi 22 mars 2024
De la théorie de la compression d’échantillons aux algorithmes de méta-apprentissage
Benjamin Leblanc
Étudiant au doctorat au Graal
Heure: 13h30
Local: PLT-2551
Résumé: En apprentissage automatique, la théorie de la compression d’échantillon permet d’obtenir des garanties de généralisation pour des prédicteurs qui ne dépendent qu’un de petit sous-ensemble des données d’entraînement, que l’on appelle « ensemble de compression ». Ces garanties tiennent même si l’algorithme d’apprentissage observe l’entièreté des données d’entraînement, du moment qu’il existe une fonction qui soit en mesure de « construire » le prédicteur appris à partir de « l’ensemble de compression ». D’autre part, le « méta-apprentissage » consiste en un paradigme où l’on tente d’apprendre simultanément à partir de plusieurs tâches partageant des similarités. Dans ce séminaire, je présenterai d’abord les grandes lignes de ces deux théories avant de discuter de mes travaux actuels qui traite de la conciliation de ces deux paradigmes.