<  Retour au portail Polytechnique Montréal

A Stochastic Levenberg-Marquardt Method for Nonsmooth Regularized Inverse Problems

Valentin Sylvain Bernard Dijon

Mémoire de maîtrise (2024)

Document en libre accès dans PolyPublie
[img]
Affichage préliminaire
Libre accès au plein texte de ce document
Conditions d'utilisation: Tous droits réservés
Télécharger (2MB)
Afficher le résumé
Cacher le résumé

Résumé

On conçoit une variante stochastique avec régularisation non lisse de l’algorithme de Levenberg-Marquardt utilisé pour résoudre des problèmes de moindres carrés non linéaires. Notre algorithme est stochastique puisqu’il permet des évaluations inexactes du résidu moindres carrés et de sa jacobienne par un échantillonnage de ces derniers. La dimension non lisse du problème empêche d’utiliser des métriques de stationnarité usuelles en optimisation car celles-ci reposent sur le gradient. Par ailleurs, l’aspect stochastique lié aux estimations basées sur un échantillonnage impacte la manière de sélectionner le prochain itéré ainsi que la convergence de l’algorithme. Nous avons conçu une preuve de convergence de notre variante de l’algorithme de Levenberg-Marquardt accompagnée d’une étude de complexité. Nous avons testé notre méthode avec une implémentation dans le langage de programmation Julia sur des problèmes de grande dimension provenant de l’intelligence artificielle et de la vision par ordinateur. Les résultats de l’analyse théorique montrent que la borne de complexité de cette variante est analogue à d’autres déjà existantes, aussi bien lisses que non lisses. Les tests numériques révèlent que l’échantillonnage permet d’accélérer la vitesse de convergence en réduisant le coût numérique de l’optimisation pour certains problèmes. Ces tests montrent également que la régularisation non lisse permet d’obtenir une solution plus creuse et donc moins volumineuse à stocker.

Abstract

We designed a stochastic and nonsmooth variant of the Levenberg-Marquardt algorithm used to solve nonlinear least squares. With large-scale problems in mind, our algorithm is stochastic in the sense that it allows inexact evaluations of both the least-squares residual and its Jacobian by sampling them. The nonsmooth dimension of the problem prevents the use of common stationarity metrics in optimization because of the inability to access the gradient. Furthermore, the stochastic estimates based on sampling have an impact on how to select the next iterate and on the convergence of the algorithm. We designed a convergence analysis for the Levenberg-Marquardt algorithm, along with a complexity study. We tested our method with an implementation in Julia on high-dimensional problems that arise from artificial intelligence and computer vision. The results of the theoretical analysis show that the complexity bound of this variant is similar to other methods that already exist, both smooth and nonsmooth. Numerical tests illustrate that sampling accelerates the speed of convergence by reducing the numerical cost of optimization for some problems. These tests also show that nonsmooth regularization enables the return of a sparser solution that is cheaper to store.

Département: Département de mathématiques et de génie industriel
Programme: Maîtrise recherche en mathématiques appliquées
Directeurs ou directrices: Youssef Diouane et Dominique Orban
URL de PolyPublie: https://publications.polymtl.ca/61111/
Université/École: Polytechnique Montréal
Date du dépôt: 16 juin 2025 16:10
Dernière modification: 31 juil. 2025 16:13
Citer en APA 7: Dijon, V. S. B. (2024). A Stochastic Levenberg-Marquardt Method for Nonsmooth Regularized Inverse Problems [Mémoire de maîtrise, Polytechnique Montréal]. PolyPublie. https://publications.polymtl.ca/61111/

Statistiques

Total des téléchargements à partir de PolyPublie

Téléchargements par année

Provenance des téléchargements

Actions réservées au personnel

Afficher document Afficher document