<  Retour au portail Polytechnique Montréal

Méthodes faiblement supervisées d'apprentissage profond pour la segmentation inter-modalités de tumeurs en imagerie médicale

Malo Alefsen de Boisredon d'Assier

Mémoire de maîtrise (2023)

[img] Accès restreint: Personnel autorisé jusqu'au 13 novembre 2024
Conditions d'utilisation: Tous droits réservés
Afficher le résumé
Cacher le résumé

Résumé

Permettant de fournir des indications précieuses pour un diagnostic clinique plus rapide et plus précis, les méthodes de vision par ordinateur pour lŠanalyse dŠimages médicales ont sus-cité beaucoup dŠintérêt au cours de la dernière décennie dans la communauté de la recherche médicale. En particulier, parmi les différents domaines de l’analyse d’images médicales, la seg-mentation de tumeurs a fait continuellement objet d’études. Dans ce contexte, les méthodes par apprentissage profond ont démontré un potentiel conséquent pour segmenter des tumeurs dans des clichés médicaux, et ce de manière rapide, précise et automatisée. Cependant, le suc-cès de la plupart des méthodes existantes repose sur la disponibilité d’annotations précises, qui sont pénibles et coûteuses en temps à produire. En outre, malgré les efforts inlassables des chercheurs, il est reconnu que les algorithmes d’apprentissage automatique - y compris les méthodes d’apprentissage profond - ne sont pas adaptés aux changements de distributions. Ces lacunes constituent un obstacle au déploiement de ces méthodes à plus grande échelle. En particulier, la généralisation inter-modalités est essentielle lorsqu’une modalité d’imagerie manque de données annotées pour l’entraînement d’un réseau. Par exemple, elle pourrait être nécessaire dans les tâches de segmentation IRM où les annotations seraient disponibles en nombre suffisant pour des séquences T1, mais manqueraient pour les séquences FLAIR. Ce défi peut être relevé grâce à des approches semi-supervisées d’adaptation de domaines, qui ex-ploitent les annotations disponibles dans la modalité “source” pour apprendre la distribution des tumeurs dans la modalité d’imagerie “cible” manquant d’annotations. Dans cette thèse, nous présentons M-GenSeg et MoDATTS, deux nouvelles stratégies d’ap-prentissage semi-supervisé pour la segmentation de tumeurs inter-modalités sur des ensembles de données bi-modales non pairées. En apprenant à translater les images entre les différentes modalités, les annotations disponibles dans la modalité source sont exploitées par ces modèles pour apprendre la distribution des tumeurs dans la modalité cible non annotée. En outre, avec l’ajout d’images connues comme étant saines, un objectif non supervisé encourage M-GenSeg et MoDATTS à retirer les tumeurs de l’arrière-plan, ce qui est similaire à une tâche de segmentation.

Abstract

As it can provide insightful guidance for faster and more accurate clinical diagnosis, computer vision for medical image analysis has fostered lots of interest among the medical research com-munity in the last decade. Notably, among various medical image analysis challenges, tumor segmentation has been unceasingly studied. In this context, deep learning methods have demonstrated their substantial potential for automated, fast and accurate medical image tu-mor segmentation. However, the success of most existing pipelines rely on the availability of pixel-level annotations, which are time-consuming and difficult to produce. Besides, in spite of tireless efforts of researchers, it is acknowledged that machine learning algorithms - deep learning methods included - are not adequately fitted for distribution shifts. These shortcom-ings constitute a barrier to the deployment of such methods at a larger scale. In particular, cross-modality generalization is key when one imaging modality lacks annotated training ex-amples. For instance, it could be needed in MRI segmentation tasks where annotations are sufficiently available for T1-weighted, but lacking for FLAIR sequences. This challenge can be tackled through semi-supervised domain-adaptive approaches, which leverage the pixel-level annotations available in the “source” modality to learn the tumor distribution in the “target” imaging modality lacking annotations. In this thesis we present M-GenSeg and MoDATTS, two new semi-supervised training strat-egy for cross-modality tumor segmentation on unpaired bi-modal datasets. By leveraging available pixel-level annotations from the source modality through cross-modality image gen-eration, both models enable to segment tumors in the unannotated target modality. Besides, with the addition of known healthy images, an unsupervised objective encourages the model to disentangle tumors from the background, which parallels the segmentation task.

Département: Institut de génie biomédical
Programme: Génie biomédical
Directeurs ou directrices: Samuel Kadoury
URL de PolyPublie: https://publications.polymtl.ca/54396/
Université/École: Polytechnique Montréal
Date du dépôt: 13 nov. 2023 10:45
Dernière modification: 13 avr. 2024 06:09
Citer en APA 7: Alefsen de Boisredon d'Assier, M. (2023). Méthodes faiblement supervisées d'apprentissage profond pour la segmentation inter-modalités de tumeurs en imagerie médicale [Mémoire de maîtrise, Polytechnique Montréal]. PolyPublie. https://publications.polymtl.ca/54396/

Statistiques

Total des téléchargements à partir de PolyPublie

Téléchargements par année

Provenance des téléchargements

Actions réservées au personnel

Afficher document Afficher document