Programme de Doctorat en informatique

Département d’informatique et de génie logiciel

Faculté des sciences et de génie

Présentation orale de la proposition de projet de thèse

(IFT-8004)

de

Elyes Manai

Vendredi 3 novembre 2023 11h00

Via Zoom (https://ulaval.zoom.us/j/69606876789?pwd=RWI1dStvOFdRYUo3WWNVb0pQOWMvUT09)

Vers des explications plus satisfaisantes en matière de cybersécurité  

Membres du comité d’encadrement

Pr. Mohamed Mejri, Ph.D. (Directeur de recherche)

Département d’informatique et de génie logiciel

Pr. Fahmi Jaafar, Ph.D.

Université du Québec à Chicoutimi’

Pr. Jaouhar Fattahi, Ph.D.

Département de génie électrique et de génie informatique

 

Résumé

La croissance rapide de l’intelligence artificielle (IA) dans tous les secteurs d’activité a conduit à une adoption plus facile par les utilisateurs, mais a également suscité des inquiétudes quant au développement incontrôlé des modèles d’IA. Nombre de ces modèles ne font pas l’objet de tests complets, ce qui entraîne des problèmes liés aux préjugés, au racisme, au sexisme et aux incidents liés à l’IA. Le problème vient du fait que l’accent est mis sur l’évaluation des performances, négligeant ainsi la nécessité de comprendre les processus décisionnels de l’IA lors d’événements inattendus. En réponse, l’IA explicable (XAI) est apparue comme un domaine de recherche essentiel, visant à fournir des explications sur le comportement de l’IA. Cependant, la nature manuelle de la sélection, de la génération et de l’évaluation de ces explications reste un obstacle important, empêchant l’intégration du XAI dans les flux de travail des entreprises et freinant les progrès.

La cybersécurité est particulièrement touchée par ces problèmes, car les attaquants utilisent l’IA pour infiltrer les systèmes, inondant les analystes de sécurité de volumes excessifs de données et de fausses alertes. En conséquence, les analystes ont du mal à détecter les attaques et à y répondre, mettant en moyenne 204 jours pour identifier les brèches et 75 jours pour les atténuer, ce qui entraîne des pertes financières considérables. Le potentiel de l’IA explicable (XAI) pour remodeler la cybersécurité est évident, car elle permet de hiérarchiser les alertes, de résumer les données et d’apporter une aide précieuse aux analystes.

Cette proposition de thèse porte sur l’évaluation des explications générées par les algorithmes d’IA explicable (XAI), dans le but d’automatiser et d’optimiser le processus afin d’améliorer l’efficacité et l’efficience des opérations de cybersécurité. L’objectif est de réduire la dépendance à l’égard des vérifications manuelles, de faciliter la digestion d’informations et de stimuler l’acquisition de connaissances, ce qui permettra aux analystes de la cybersécurité de résoudre plus rapidement les problèmes et aux utilisateurs finaux de les comprendre plus facilement.

Abstract 

The rapid growth of Artificial Intelligence (AI) across industries has led to widespread adoption but also raised concerns about the unchecked development of AI models. Many of these models lack comprehensive testing, resulting in issues related to bias, racism, sexism, and AI-related incidents. The problem stems from a focus on performance evaluation, neglecting the need for understanding AI decision-making processes during unexpected events. In response, Explainable AI (XAI) has emerged as a vital area of research, aiming to provide explanations for AI behavior. However, the manual nature of selecting, generating, and evaluating these explanations remains a significant obstacle, impeding the integration of XAI into business workflows and impeding progress.

Cybersecurity is notably affected by these issues as attackers leverage AI for system infiltration, inundating security analysts with excessive volumes of logs and false alerts. Consequently, analysts struggle with the detection and response to attacks, taking an average of 204 days to identify and 75 days to mitigate breaches, incurring significant financial losses. The potential of Explainable AI (XAI) in reshaping cybersecurity is evident, as it offers support in alert prioritization, data summarization, and valuable aid to analysts.

This thesis proposal focuses on the evaluation of explanations generated by Explainable AI (XAI) algorithms, with the goal of automating and optimizing the process to enhance the efficiency and effectiveness of cybersecurity operations. The objective is to reduce the reliance on manual checks, facilitate information intake, and boost knowledge building, ultimately leading to quicker issue resolution times for cybersecurity analysts and easier comprehension for end-users.

 

Bienvenue à tous !