Programme de Doctorat en informatique

Département d’informatique et de génie logiciel

Faculté des sciences et de génie

Présentation orale de la proposition de projet de recherche

(IFT-8003)

de

Taha Racicot

 

Le jeudi 5 septembre 2024 à 13h30

Local 3904, Pavillon Adrien Pouliot

Disparate treatments discovery algorithm framework
with no access to protected attribute values

 

Membres du jury

 

Richard Khoury, Ph.D. (Directeur de recherche)

Département d’informatique et de génie logiciel

Christophe Père, Ph.D. (Co-directeur)

École de technologie supérieure

Claude-Guy Quimper, Ph.D. (Examinateur)

Département d’informatique et de génie logiciel

Anne-Sophie Charest, Ph.D. (Examinatrice)

Département de mathématiques et de statistique

 

Résumé

Dans le domaine de l’apprentissage automatique moderne, la découverte de la discrimination est un domaine d’étude essentiel, qui revêt une importance considérable dans divers domaines. Ce travail vise à mettre en lumière l’importance de la découverte des discriminations, en soulignant son rôle dans la lutte contre les discriminations et les préjugés dans l’IA et pour l’équité algorithmique. Il explorera également les lacunes de l’IA dans les applications du monde réel, en s’appuyant sur des exemples spécifiques, et soutiendra que ces problèmes découlent souvent d’un manque d’automatisation dans les tests d’équité et d’une incapacité à inclure des variables protégées dans l’analyse de la discrimination. Compte tenu de ces défis, il est évident que nous devons affiner notre approche du développement et de l’essai des modèles d’IA. Nous devrions privilégier des méthodes d’évaluation robustes qui tiennent activement compte de l’impact des attributs protégés, garantissant ainsi un traitement équitable pour tous les individus. En outre, nous devrions exploiter des outils automatisés pour améliorer l’impartialité et la précision des évaluations de l’équité. Bien que de nombreuses méthodes de test de discrimination aient été conçues, leur efficacité suscite toujours le scepticisme et, dans la pratique, la découverte des préjugés se fait souvent de manière ad hoc. Néanmoins, en adoptant ces améliorations, nous pouvons nous efforcer de créer des systèmes d’IA qui font progresser l’équité dans un monde de plus en plus numérique, tout en minimisant l’influence des préjugés humains dans le processus d’analyse.

Note: La présentation sera donnée en français.

Bienvenue à tous !