Vendredi 24 janvier 2025

La compression d’échantillons sans limite : De nouveaux résultats pour les pertes à valeurs réelles
Mathieu Bazinet
Étudiant au doctorat au Graal

Heure: 13h30
Local: PLT-3775

Résumé: La théorie de la compression d’échantillons permet d’obtenir des garanties de généralisation pour des prédicteurs qui sont complètement définis à partir d’un sous-ensemble du jeu de données et d’un message, généralement défini par une courte séquence binaire. Les travaux précédents proposent des garanties qui sont valides uniquement pour la perte zéro-un, ce qui peut être restrictif, notamment lorsqu’on s’intéresse à l’apprentissage profond. Durant cette présentation, je présenterai de nouveaux théorèmes de compression d’échantillons pouvant être utilisés avec des pertes à valeurs réelles ainsi que des pertes non bornées. Grâce au méta-algorithme Pick-To-Learn, nous avons empiriquement validé la qualité de nos bornes en les évaluant sur divers jeux de données avec des réseaux de neurones de plus en plus profonds.

http://www2.ift.ulaval.ca/~quimper/Seminaires/