Programme de Doctorat en informatique

Département d’informatique et de génie logiciel

Faculté des sciences et de génie

Présentation orale de la proposition de projet de recherche

(IFT-8003)

de

Théophile Berteloot

 

Le jeudi 5 septembre 2024 à 10h

Local 3904, Pavillon Adrien Pouliot

Représentation, détection, prédiction et modération
de la toxicité dans les conversations en ligne

Membres du jury

 

Richard Khoury, Ph.D. (Directeur de recherche)

Département d’informatique et de génie logiciel

Luc Lamontagne, Ph.D. (Examinateur)

Département d’informatique et de génie logiciel

Audrey Durand, Ph.D. (Examinatrice)

Département d’informatique et de génie logiciel

 

Résumé

Les outils permettant aux personnes de discuter en ligne sont en nombre croissant, il est cependant nécessaire de monitorer ces discussions pour offrir aux utilisateurs de ces plateformes un environnement sain où s’exprimer. Le nombre de messages transmis via ces outils tels que les réseaux sociaux sont bien trop élevé pour pouvoir être analysé par des humains. La toxicité a des impacts sur les entreprises gérant ces plateformes, car un environnement toxique fait fuir les utilisateurs, elle peut aussi avoir un impact sévère sur la santé mentale des utilisateurs. La mise en place de méthodes de détection automatique de la toxicité est donc une priorité.

Cependant, la détection de la toxicité est un problème complexe et subjectif. Dans cette proposition de recherche, nous commençons par présenter un nouveau jeu de données de messages Facebook provenant des discussions sous les articles du journal québécois Le Soleil. Nous proposons des outils pour analyser la toxicité des messages transmis en ligne dans le contexte de leur conversation. Nous nous intéressons également à des méthodes permettant de prédire la probabilité qu’une conversation dégénère en conversation toxique à plus ou moins long terme. Nous prenons aussi en considération, mesurons et tentons de réduire les biais pour ou contre certaines communautés, présents dans les modèles de détection de la toxicité. Pour finir, nous proposons deux outils de modération, le premier permettant de réduire l’impact du coût de transfert des modèles entre communautés ainsi que l’impact des attaques subversives des utilisateurs en utilisant l’apprentissage par renforcement. Le second permettant de reformuler automatiquement les messages des utilisateurs pour qu’ils transmettent le même sens, mais avec une toxicité moindre.

Note: La présentation sera donnée en français.

 

Bienvenue à tous !