Programme de doctorat
Département d’informatique et de génie logiciel
Faculté des sciences et de génie
SOUTENANCE DE THÈSE
de
Mathieu Pagé Fortin
Le jeudi 23 mai 2024 à 10 h
Local 2751, Pavillon Adrien-Pouliot
Lien Zoom: https://ulaval.zoom.us/j/65243733074?pwd=UThwWGlqMEpmN1dBYnc2YlZZaFNlZz09
Meeting ID: 652 4373 3074
Passcode: 784363
« Adaptabilité et extensibilité des réseaux de neurones profonds »
Président
Monsieur Paul Fortier, Ph.D.
Directeur des études graduée
Département de génie électrique et de génie informatique
Université Laval
Examinateurs
Monsieur Brahim Chaib-draa, Ph.D. (Directeur de recherche)
Département d’informatique et de génie logiciel
Université Laval
Monsieur Luc Lamontagne, Ph.D. (Examinateur)
Département d’informatique et de génie logiciel
Université Laval
Monsieur Philippe Giguère, Ph.D. (Examinateur)
Département d’informatique et de génie logiciel
Université Laval
Monsieur Jose Dolz, Ph.D. (Examinateur externe)
Département de génie logiciel et technologies de l’information
École de technologie supérieure (ETS), Montréal
Résumé
L’apprentissage profond s’est particulièrement illustré en vision par ordinateur grâce à sa capacité à résoudre des tâches spécifiques à partir de données brutes, une qualité que nous nommons « ajustabilité » (tunability). Dans cette thèse notre travail a consisté à améliorer l’adaptabilité et l’extensibilité des réseaux de neurones profonds, c’est-à-dire la capacité de ces réseaux à apprendre de nouvelles tâches efficacement et à acquérir continuellement de nouvelles connaissances, sans oublier celles déjà acquises. Plus spécifiquement, nous avons étudié ces deux propriétés, l’adaptabilité et l’extensibilité, à travers l’apprentissage à partir de peu d’exemples (few-shot learning) et l’apprentissage continuel.
Dans ce contexte, nous avons proposé une méthode exploitant des relations contextuelles et des représentations multimodales pour former de meilleurs prototypes de classe, facilitant ainsi l’adaptation à de nouvelles tâches avec peu d’exemples. Pour l’apprentissage continuel de la segmentation sémantique, nous avons développé un module d’apprentissage faiblement supervisé et introduit un mécanisme de révision pour rejouer des régions d’images ainsi que des caractéristiques intermédiaires, aidant ainsi à maintenir les performances du modèle. Nous avons également exploré l’apprentissage continuel de la détection d’objets et de la segmentation d’instances en développant une architecture dynamique et une méthode de distillation des connaissances. Cette approche a été expérimentée dans un contexte d’applications agricoles telles que la détection de plantes et de maladies.
Abstract
Deep learning has particularly excelled in computer vision due to its ability to solve specific tasks from raw data, a quality that we call « tunability. » Our work aims to enhance the adaptability and extensibility of deep neural networks, that is their ability to efficiently learn new tasks and continuously acquire new knowledge without forgetting previously learned information. In this thesis, we have studied these two properties, adaptability and extensibility, by working on few-shot learning and continual learning.
We proposed a method that leverages contextual relationships and multimodal representations to form better class prototypes, facilitating adaptation to new tasks with few examples. For continual semantic segmentation, we developed a weakly-supervised learning module and introduced a rehearsal mechanism to replay image regions and intermediate features, helping to maintain model performance. Additionally, we explored continual object detection and instance segmentation by developing a dynamic architecture and a knowledge distillation method. This approach was experimented for agricultural applications such as plant and disease detection.
Note: La présentation sera donnée en français.
Bienvenue à tous !