<  Back to the Polytechnique Montréal portal

Modélisation du mouvement tridimensionnel du foie à partir d’images échographiques 2D par auto-encodeurs convolutionnels

Tal Mezheritsky

Masters thesis (2021)

[img] Terms of Use: All rights reserved.
Restricted to: Repository staff only until 14 July 2022.
Cite this document: Mezheritsky, T. (2021). Modélisation du mouvement tridimensionnel du foie à partir d’images échographiques 2D par auto-encodeurs convolutionnels (Masters thesis, Polytechnique Montréal). Retrieved from https://publications.polymtl.ca/6292/
Show abstract Hide abstract

Abstract

Le mouvement engendré par la respiration est un facteur de complication pour les procédures de traitement du cancer du foie comme la radiothérapie externe. Afin d’assurer la livraison de l’irradiation au tissu cancéreux, la position en 3D de la tumeur et des structures à risque doit être suivie au cours de la procédure. Des solutions de guidage par imagerie ont été uti-lisées en clinique afin de compenser le mouvement respiratoire en ajustant la trajectoire du faisceau d’irradiation. Toutefois, la plupart des systèmes commerciaux utilisent des modalités d’imagerie telles que les rayons X ou la tomographie à faisceau conique qui appliquent une dose supplémentaire d’irradiation au patient en plus d’avoir des fréquences d’acquisition trop lentes pour les applications en temps réel. L’imagerie par US, quant à elle, permet d’e˙ectuer des acquisitions en 2D, 3D et 4D pour un coût relativement bas, le tout sans appliquer d’ir-radiation ionisante. Pour ces raisons, l’US est une modalité intéressante pour les systèmes de radiothérapie guidée par l’image. Cependant, l’US 2D ne permet pas de suivre les tumeurs qui se déplacent en 3D tandis que l’US 3D possède un temps d’acquisition et de traitement trop long. Par conséquent, une approche hybride qui permet de générer des volumes d’US 3D à partir d’images d’US 2D acquises en temps réel peut constituer une solution pour les systèmes de radiothérapie guidée par l’US. Les récents développements en apprentissage profond ont accéléré l’innovation dans le do-maine de l’analyse d’images médicales. Des approches de modélisation du mouvement basées sur l’apprentissage profond ont été développées pour des modalités telles que l’IRM et le CT. Toutefois, peu de travaux ont été axés sur la génération de volume d’US 3D. Dans le présent mémoire, nous présentons une méthode de modélisation du mouvement basée sur l’apprentissage profond qui permet de générer des volumes d’US 3D mis à jour à partir d’un nombre limité de volumes de prétraitement ainsi qu’une séquence d’images d’US 2D. L’étude de di˙érentes architectures a souligné le potentiel des autoencodeurs convolutionels pour accomplir notre tâche. Notre modèle apprend une représentation de basse dimension commune entre des champs de mouvement en 3D et des images d’US 2D correspondantes. Les champs de mouvements 3D générés à partir des images 2D permettent de déformer le volume de référence de prétraitement et d’obtenir un nouveau volume du foie en 3D, même pour de nouveaux sujets. Nous introduisons des améliorations à l’autoencodeur convolutionel qui l’adaptent pour la tâche de modélisation du mouvement respiratoire. Le modèle est validé sur un ensemble de données de 20 volontaires à l’aide de métriques de similarité d’image et de suivi de cibles. Une erreur de localisation de cible de 3.5 ± 2.4 mm est rapportée, montrant le fort potentiel de notre méthode pour les applications en radiothérapie guidée par l’US.----------ABSTRACT Respiratory motion is a complicating factor for liver cancer treatments such as external beam radiotherapy. In order to ensure proper delivery of radiation to the treatment site, the 3D position of the tumoral volume and organs at risk must be tracked at all times during the pro-cedure. Image-guided solutions have been used clinically to account for respiratory motion and adjust the beam trajectory to optimize treatment delivery. However, most commercial solutions rely on imaging modalities such as X-ray imaging or cone-beam computed tomogra-phy which apply an additional radiation dose to the patient and have acquisition times that are too long for real-time applications. Contrastingly, ultrasound (US) imaging o˙ers 2D, 3D and 4D imaging capabilities for a relatively low cost without imparting ionizing radiation to the patient. US imaging is therefore a viable candidate for image-guided radiation therapy systems. However, 2D US can only provide in-plane guidance while 3D US volumes provide complete spatial information but take longer to acquire and to analyze afterwards. Conse-quently, a hybrid approach which generates 3D US volumes from 2D US images acquired in real-time could constitute a viable solution for US-guided radiation therapy systems. In recent years, developments in deep learning for computer vision have accelerated innova-tion in the medical image analysis field. Approaches for deep learning based motion models have been proposed for modalities such as MRI and CT however very few works focus on 3D US generation from 2D images. In the present work, we propose a motion modelling method based on deep learning which allows to generate up-to-date 3D US volumes by using a limited number of pre-treatment vol-umes and a sequence of 2D US images. A study of di˙erent model architectures revealed the potential of convolutional autoencoder based models to complete the aforementioned task. Our proposed model learns a common low-dimensional representation between 3D US motion fields and corresponding 2D US images. The model is then able to generate a 3D motion field from an input 2D US image, even for previously unseen subjects. The generated motion field is used to deform a reference volume acquired before treatment, thus providing an updated 3D representation of the liver. We introduce improvements over the traditional convolutional autoencoder which adapt it to the specific task of respiratory motion modelling. We validate our method on a dataset of 20 healthy volunteers using image similarity and target tracking metrics achieving a mean target reconstruction error of 3.5 ± 2.4 mm. The reported results showcase the strong potential of our method for US guided radiotherapy applications.

Open Access document in PolyPublie
Department: Institut de génie biomédical
Polytechnique Montréal > Centres de recherche > Institut de génie biomédical
Academic/Research Directors: Samuel Kadoury
Date Deposited: 14 Jul 2021 10:44
Last Modified: 14 Jul 2021 10:44
PolyPublie URL: https://publications.polymtl.ca/6292/

Statistics

Total downloads

Downloads per month in the last year

Origin of downloads

Repository Staff Only