<  Retour au portail Polytechnique Montréal

Estimation de pose de véhicules spatiaux non coopératifs à partir de réseaux de neurones – De l'image monoculaire à l'implémentation embarquée temps réel et à l'analyse temporelle

Julien Posso

Thèse de doctorat (2025)

Document en libre accès dans PolyPublie
[img]
Affichage préliminaire
Libre accès au plein texte de ce document
Conditions d'utilisation: Tous droits réservés
Télécharger (53MB)
Afficher le résumé
Cacher le résumé

Résumé

Cette thèse porte sur l’estimation de pose de véhicules spatiaux non coopératifs à partir d’images monoculaires, en s’appuyant sur des techniques d’apprentissage profond. Cette pro-blématique revêt une importance croissante dans le contexte de l’automatisation des opéra-tions spatiales contemporaines. L’objectif central de ce travail est de concevoir des réseaux de neurones à la fois précis et suffisamment efficients pour être déployés à bord de plateformes aux ressources contraintes. Le premier volet de cette recherche introduit Mobile-URSONet, un réseau optimisé pour les strictes contraintes de l’embarqué spatial. Développé dans le prolongement d’un concours international organisé par l’Agence spatiale européenne et l’Université Stanford, ce modèle s’inscrit dans le courant des approches neuronales pour l’estimation de pose spatiale. Mobile-URSONet se distingue par un compromis maîtrisé entre complexité computationnelle et précision, et constitue l’une des premières architectures compatibles avec un déploiement embarqué sur des calculateurs à faibles ressources. Le deuxième volet porte sur l’exécution temps réel de ce modèle sur trois plateformes ma-térielles représentatives des environnements spatiaux : un processeur ARM Cortex-A53, un GPU Nvidia Jetson Orin Nano et un FPGA Xilinx UltraScale+. Cette étude démontre la faisabilité d’un déploiement embarqué en temps réel, en mobilisant des stratégies de quanti-fication efficaces et des chaînes de compilation adaptées. L’évaluation rigoureuse des perfor-mances comble les lacunes identifiées dans les travaux antérieurs. Le troisième volet étend l’estimation de pose au domaine temporel, avec l’introduction de D-SPEED, un jeu de données original combinant des images fixes haute résolution et des séquences vidéo annotées. Il s’agit du premier jeu de données à proposer des trajectoires variées et documentées, permettant d’évaluer finement la robustesse et la stabilité temporelle des prédictions. Les contributions proposées répondent aux contraintes scientifiques et techniques du domaine spatial, tout en s’alignant sur les exigences d’une exécution embarquée en orbite. Elles ouvrent la voie à des applications opérationnelles telles que l’amarrage autonome, la maintenance orbitale ou la navigation visuelle embarquée. La méthodologie rigoureuse adoptée, ainsi que la diffusion libre et reproductible des ressources développées, fournissent à la communauté scientifique un socle fiable pour prolonger ces travaux.

Abstract

This thesis addresses the problem of pose estimation for non-cooperative spacecraft using monocular images, leveraging deep learning techniques. This challenge is gaining importance in the context of increasing automation in contemporary space operations. The central objective of this work is to design neural networks that are both accurate and computationally efficient enough to be deployed on resource-constrained space platforms. The first part of this research introduces Mobile-URSONet, a neural network optimized for the strict constraints of space-grade embedded systems. Developed in the wake of an international challenge organized by the European Space Agency and Stanford University, this model aligns with the growing use of neural approaches for spacecraft pose estimation. Mobile-URSONet stands out by offering a well-balanced trade-off between computational complexity and accuracy, and ranks among the first architectures compatible with embedded deployment on low-power onboard computers. The second part focuses on the real-time execution of this model across three representative embedded platforms for space environments: an ARM Cortex-A53 processor, an Nvidia Jetson Orin Nano GPU, and a Xilinx UltraScale+ FPGA. This extensive study demonstrates the feasibility of real-time onboard inference, relying on effective quantization strategies and optimized compilation pipelines. The thorough performance evaluation helps address several gaps identified in prior work. The third part extends pose estimation to the temporal domain by introducing D-SPEED, an original and publicly available dataset combining high-resolution still images with annotated video sequences. It is the first dataset to offer diverse and documented spacecraft trajectories in video format, enabling a rigorous assessment of the robustness and temporal stability of pose predictions. The proposed contributions meet both scientific and technical constraints of the space do-main, while aligning with the operational requirements of embedded on-orbit execution. This work paves the way for future applications such as autonomous docking, orbital servicing, and vision-based navigation. The rigorous methodology adopted throughout the research, along with the open and reproducible dissemination of all developed resources, provides the scientific community with a reliable foundation to build upon.

Département: Département de génie informatique et génie logiciel
Programme: Génie informatique
Directeurs ou directrices: Guy Bois et Yvon Savaria
URL de PolyPublie: https://publications.polymtl.ca/67849/
Université/École: Polytechnique Montréal
Date du dépôt: 17 nov. 2025 12:16
Dernière modification: 20 nov. 2025 11:51
Citer en APA 7: Posso, J. (2025). Estimation de pose de véhicules spatiaux non coopératifs à partir de réseaux de neurones – De l'image monoculaire à l'implémentation embarquée temps réel et à l'analyse temporelle [Thèse de doctorat, Polytechnique Montréal]. PolyPublie. https://publications.polymtl.ca/67849/

Statistiques

Total des téléchargements à partir de PolyPublie

Téléchargements par année

Provenance des téléchargements

Actions réservées au personnel

Afficher document Afficher document