Programme de Doctorat en informatique

Département d’informatique et de génie logiciel

Faculté des sciences et de génie

Présentation orale de la proposition de projet de recherche

(IFT-8003)

de

Alexandre Larouche

 

Le mercredi 3 avril 2024 à 13 h

La présentation sera diffusée sur Zoom :
https://ulaval.zoom.us/j/66150297540?pwd=ekRnV01IU2dabFltektHd3dyWVFCQT09

Meeting ID: 661 5029 7540

Passcode: 312858

Interpréter les modèles d’apprentissage profonds
avec des méthodes d’apprentissage interactif

 

Membres du comité d’encadrement

 

Audrey Durand, Ph.D. (Directrice de recherche)

Département d’informatique et de génie logiciel

Mario Marchand, Ph.D. (co-directeur)

Département d’informatique et de génie logiciel

Yusuf Cem Subakan, Ph.D.

Département d’informatique et de génie logiciel

Yoshua Bengio, Ph.D.

Département d’informatique et de recherche opérationnelle

Université de Montréal

 

Résumé

La recherche en intelligence artificielle avance à un rythme effréné depuis déjà plusieurs années. Le développement de grands modèles d’apprentissage profonds, des modèles complexes avec des capacités autrefois inimaginables, commence à mener à des produits de plus en plus accessibles au grand public. Or, malgré les avancées techniques de la communauté scientifique qui ont permis de développer ces modèles très performants, les mécanismes et les raisonnements appris par ces modèles demeurent pour la plupart incompris par les humains. Ainsi, le manque de transparence quant au fonctionnement interne de ces modèles est l’un des obstacles à surmonter si nous souhaitons les déployer et les rendre accessibles à la population de manière sécuritaire. Afin de réduire l’opacité des modèles d’apprentissage profond, et ainsi améliorer notre compréhension de leurs composantes internes (par exemple, neurones, filtres, attention), une partie de la communauté scientifique s’est concentrée sur le développement de techniques d’explicabilité et d’interprétabilité. Plusieurs approches ont été développées au fil du temps, certaines se concentrant sur la théorie des jeux (par exemple, les valeurs de Shapley) et d’autres se concentrant sur les mécanismes internes en trouvant des circuits, des ensembles de composantes interagissant ensemble afin d’accomplir des tâches ou des comportements spécifiques (par exemple, la détection de genre dans une phrase). Dans cette proposition de recherche, nous visons à contribuer à ce corpus de travaux existants en proposant de nouveaux outils capables d’expliquer et d’interpréter des modèles de manière automatique grâce à l’apprentissage interactif. Plusieurs techniques d’explicabilité et d’interprétabilité courantes sont limitées par la quantité de calcul nécessaire à l’obtention d’un résultat intéressant. Ainsi, l’apprentissage interactif est une approche prometteuse pour réduire la quantité de calcul, tout en maintenant la qualité des explications et des interprétations.

Abstract

Titre en anglais : Deep Neural Networks with Interactive Learning Methods

 

Research in artificial intelligence has been progressing at a frantic pace for several years now. The development of large deep learning models, complex models with once unimaginable capabilities, is beginning to lead to products that are increasingly accessible to the general public. However, despite the technical advances of the scientific community that have enabled the development of these highly capable models, the mechanisms and reasoning learned by these models remain largely incomprehensible for humans. Thus, the lack of transparency regarding the internal functioning of these models is one of the obstacles to overcome if we want to deploy them and make them accessible to the population in a secure manner. In order to reduce the opacity of deep learning models and improve our understanding of their internal components (such as neurons, filters, attention), a portion of the scientific community has focused on the development of explainability and interpretability techniques. Several approaches have been developed over time, some focusing on game theory (for example, Shapley values) and others focusing on internal mechanisms by finding circuits, sets of components interacting together to accomplish specific tasks or behaviors (for example, gender detection in a sentence). In this proposal, we seek to contribute to this corpus of existing works by proposing novel tools based on interactive learning capable of generating explanations in an automated fashion. Many common explainability and interpretation techniques are limited by the amount of computation required to obtain an interesting result. Thus, interactive learning is a promising approach to reduce the amount of computation, while maintaining the quality of explanations and interpretations.

Note: La présentation sera donnée en anglais.

Join by SIP

sip:66150297540@zmca.us

Join by H.323

69.174.57.160 (Canada Toronto)

65.39.152.160 (Canada Vancouver)

Meeting ID: 661 5029 7540

Passcode: 312858

Meeting ID: 661 5029 7540

Passcode: 312858

One tap mobile

+12042727920,,66150297540#,,,,*312858# Canada

+14388097799,,66150297540#,,,,*312858# Canada

Dial by your location

        +1 204 272 7920 Canada

        +1 438 809 7799 Canada

        +1 587 328 1099 Canada

        +1 647 374 4685 Canada

        +1 647 558 0588 Canada

        +1 778 907 2071 Canada

Meeting ID: 661 5029 7540

Passcode: 312858

Find your local number: https://ulaval.zoom.us/u/gvWWBWpxL

 

Bienvenue à tous!