Abdoulaye EL YACOUBA BILLI

Spécialité : Informatique

Laboratoire : LIPN

Directrice de thèse : Céline Rouveirol 

Co-encadrant : Thomas Papastergiou 

 

Titre de la thèse : Interprétabilité pour l’apprentissage multi-instances en imagerie médicale

L’apprentissage multi-instances (Multiple Instance Learning, MIL) est une approche d’intelligence artificielle adaptée aux données complexes, comme les images médicales. Contrairement aux méthodes classiques où chaque donnée est associée directement à une étiquette, le MIL considère des ensembles d’éléments (appelés « sacs ») dont seul le label global est connu. Cette représentation est particulièrement utile en imagerie médicale : par exemple, une image histopathologique peut contenir à la fois des zones saines et des zones cancéreuses, mais seule l’étiquette de l’image entière est disponible. L’objectif de cette thèse est de développer de nouvelles méthodes d’interprétation des modèles MIL, afin d’identifier les régions clés qui influencent la décision et d’expliquer leur rôle. Le projet vise à proposer des techniques capables de fournir des explications à la fois au niveau des instances (zones de l’image) et des caractéristiques fines (comme les pixels), pour mieux comprendre le raisonnement des modèles. En s’appuyant sur des applications en histopathologie, ces travaux contribueront à renforcer la confiance dans l’intelligence artificielle en médecine et à faciliter son adoption par les praticiens.

Thesis title : Interpretability for Multiple Instance Learning for Medical Imaging

Multiple Instance Learning (MIL) is a machine learning paradigm designed for complex data such as medical images. Unlike traditional approaches where each sample has an explicit label, MIL considers sets of elements (“bags”) with only a global label. This setting is highly relevant in medical imaging: for instance, a histopathology slide may contain both healthy and cancerous regions, but only the label of the entire image is available. This PhD project aims to design novel interpretability methods for MIL models, in order to identify the key regions driving predictions and explain their contributions. The goal is to provide explanations at both the instance level (image patches) and the feature level (e.g., pixels), offering a more detailed understanding of the decision process. Focusing primarily on histopathology applications, these methods will help enhance the trustworthiness of AI systems in medicine and support their integration into clinical practice.

Retour en haut