Programme de doctorat
Département d’informatique et de génie logiciel
Faculté des sciences et de génie

SOUTENANCE DE THÈSE
de 
Mathieu Pagé Fortin

Le jeudi 23 mai 2024 à 10 h

Local 2751, Pavillon Adrien-Pouliot

Lien Zoom: https://ulaval.zoom.us/j/65243733074?pwd=UThwWGlqMEpmN1dBYnc2YlZZaFNlZz09
Meeting ID: 652 4373 3074
Passcode: 784363

« Adaptabilité et extensibilité des réseaux de neurones profonds »

Président

Monsieur Paul Fortier, Ph.D.
Directeur des études graduée
Département de génie électrique et de génie informatique
Université Laval

Examinateurs

Monsieur Brahim Chaib-draa, Ph.D. (Directeur de recherche)
Département d’informatique et de génie logiciel

              Université Laval

 

Monsieur Luc Lamontagne, Ph.D. (Examinateur)
Département d’informatique et de génie logiciel
Université Laval

 Monsieur Philippe Giguère, Ph.D. (Examinateur)
Département d’informatique et de génie logiciel
Université Laval

Monsieur Jose Dolz, Ph.D. (Examinateur externe)

Département de génie logiciel et technologies de l’information

École de technologie supérieure (ETS), Montréal

Résumé

L’apprentissage profond s’est particulièrement illustré en vision par ordinateur grâce à sa capacité à résoudre des tâches spécifiques à partir de données brutes, une qualité que nous nommons « ajustabilité » (tunability). Dans cette thèse notre travail a consisté à améliorer l’adaptabilité et l’extensibilité des réseaux de neurones profonds, c’est-à-dire la capacité de ces réseaux à apprendre de nouvelles tâches efficacement et à acquérir continuellement de nouvelles connaissances, sans oublier celles déjà acquises. Plus spécifiquement, nous avons étudié ces deux propriétés, l’adaptabilité et l’extensibilité, à travers l’apprentissage à partir de peu d’exemples (few-shot learning) et l’apprentissage continuel.
Dans ce contexte, nous avons proposé une méthode exploitant des relations contextuelles et des représentations multimodales pour former de meilleurs prototypes de classe, facilitant ainsi l’adaptation à de nouvelles tâches avec peu d’exemples. Pour l’apprentissage continuel de la segmentation sémantique, nous avons développé un module d’apprentissage faiblement supervisé et introduit un mécanisme de révision pour rejouer des régions d’images ainsi que des caractéristiques intermédiaires, aidant ainsi à maintenir les performances du modèle. Nous avons également exploré l’apprentissage continuel de la détection d’objets et de la segmentation d’instances en développant une architecture dynamique et une méthode de distillation des connaissances. Cette approche a  été expérimentée dans un contexte d’applications agricoles telles que la détection de plantes et de maladies.


Abstract

Deep learning has particularly excelled in computer vision due to its ability to solve specific tasks from raw data, a quality that we call « tunability. » Our work aims to enhance the adaptability and extensibility of deep neural networks, that is their ability to efficiently learn new tasks and continuously acquire new knowledge without forgetting previously learned information. In this thesis, we have studied these two properties, adaptability and extensibility, by working on few-shot learning and continual learning.
We proposed a method that leverages contextual relationships and multimodal representations to form better class prototypes, facilitating adaptation to new tasks with few examples. For continual semantic segmentation, we developed a weakly-supervised learning module and introduced a rehearsal mechanism to replay image regions and intermediate features, helping to maintain model performance. Additionally, we explored continual object detection and instance segmentation by developing a dynamic architecture and a knowledge distillation method. This approach was experimented for agricultural applications such as plant and disease detection.

Note: La présentation sera donnée en français.

Bienvenue à tous !