Nathan Allaire, Sébastien Le Digabel, Dominique Orban
et Vahid Partovi Nia
Article de revue (2026)
Un lien externe est disponible pour ce document| Département: | Département de mathématiques et de génie industriel |
|---|---|
| URL de PolyPublie: | https://publications.polymtl.ca/72402/ |
| Titre de la revue: | SN Computer Science (vol. 7, no 2) |
| Maison d'édition: | Springer Nature |
| DOI: | 10.1007/s42979-025-04704-9 |
| URL officielle: | https://doi.org/10.1007/s42979-025-04704-9 |
| Date du dépôt: | 10 févr. 2026 09:16 |
| Dernière modification: | 10 févr. 2026 09:16 |
| Citer en APA 7: | Allaire, N., Le Digabel, S., Orban, D., & Partovi Nia, V. (2026). Zeroth-Order Kronecker Optimization for Pretraining Language Models. SN Computer Science, 7(2). https://doi.org/10.1007/s42979-025-04704-9 |
|---|---|
Statistiques
Dimensions
