Programme de Doctorat en informatique
Département d’informatique et de génie logiciel
Faculté des sciences et de génie
Présentation orale de la proposition de projet de recherche
(IFT-8003)
de
Taha Racicot
Le jeudi 5 septembre 2024 à 13h30
Local 3904, Pavillon Adrien Pouliot
Disparate treatments discovery algorithm framework
with no access to protected attribute values
Membres du jury
Richard Khoury, Ph.D. (Directeur de recherche)
Département d’informatique et de génie logiciel
Christophe Père, Ph.D. (Co-directeur)
École de technologie supérieure
Claude-Guy Quimper, Ph.D. (Examinateur)
Département d’informatique et de génie logiciel
Anne-Sophie Charest, Ph.D. (Examinatrice)
Département de mathématiques et de statistique
Résumé
Dans le domaine de l’apprentissage automatique moderne, la découverte de la discrimination est un domaine d’étude essentiel, qui revêt une importance considérable dans divers domaines. Ce travail vise à mettre en lumière l’importance de la découverte des discriminations, en soulignant son rôle dans la lutte contre les discriminations et les préjugés dans l’IA et pour l’équité algorithmique. Il explorera également les lacunes de l’IA dans les applications du monde réel, en s’appuyant sur des exemples spécifiques, et soutiendra que ces problèmes découlent souvent d’un manque d’automatisation dans les tests d’équité et d’une incapacité à inclure des variables protégées dans l’analyse de la discrimination. Compte tenu de ces défis, il est évident que nous devons affiner notre approche du développement et de l’essai des modèles d’IA. Nous devrions privilégier des méthodes d’évaluation robustes qui tiennent activement compte de l’impact des attributs protégés, garantissant ainsi un traitement équitable pour tous les individus. En outre, nous devrions exploiter des outils automatisés pour améliorer l’impartialité et la précision des évaluations de l’équité. Bien que de nombreuses méthodes de test de discrimination aient été conçues, leur efficacité suscite toujours le scepticisme et, dans la pratique, la découverte des préjugés se fait souvent de manière ad hoc. Néanmoins, en adoptant ces améliorations, nous pouvons nous efforcer de créer des systèmes d’IA qui font progresser l’équité dans un monde de plus en plus numérique, tout en minimisant l’influence des préjugés humains dans le processus d’analyse.
Note: La présentation sera donnée en français.
Bienvenue à tous !