<  Retour au portail Polytechnique Montréal

Zeroth-Order Kronecker Optimization for Pretraining Language Models

Nathan Allaire, Sébastien Le Digabel, Dominique Orban et Vahid Partovi Nia

Article de revue (2026)

Un lien externe est disponible pour ce document
Département: Département de mathématiques et de génie industriel
URL de PolyPublie: https://publications.polymtl.ca/72402/
Titre de la revue: SN Computer Science (vol. 7, no 2)
Maison d'édition: Springer Nature
DOI: 10.1007/s42979-025-04704-9
URL officielle: https://doi.org/10.1007/s42979-025-04704-9
Date du dépôt: 10 févr. 2026 09:16
Dernière modification: 10 févr. 2026 09:16
Citer en APA 7: Allaire, N., Le Digabel, S., Orban, D., & Partovi Nia, V. (2026). Zeroth-Order Kronecker Optimization for Pretraining Language Models. SN Computer Science, 7(2). https://doi.org/10.1007/s42979-025-04704-9

Statistiques

Dimensions

Actions réservées au personnel

Afficher document Afficher document