<  Retour au portail Polytechnique Montréal

No train no gain: revisiting efficient training algorithms for transformer-based language models

Jean Kaddour, Oscar Key, Piotr Nawrot, Pasquale Minervini et Matt J. Kusner

Communication écrite (2023)

Document publié alors que les auteurs ou autrices n'étaient pas affiliés à Polytechnique Montréal

Un lien externe est disponible pour ce document
URL de PolyPublie: https://publications.polymtl.ca/65852/
Nom de la conférence: 37th Conference on Neural Information Processing Systems (NeurIPS 2023)
Lieu de la conférence: New Orleans, LA, USA
Date(s) de la conférence: 2023-12-10 - 2023-12-16
DOI: 10.5555/3666122.3667244
URL officielle: https://dl.acm.org/doi/10.5555/3666122.3667244
Date du dépôt: 30 mai 2025 10:10
Dernière modification: 30 mai 2025 10:10
Citer en APA 7: Kaddour, J., Key, O., Nawrot, P., Minervini, P., & Kusner, M. J. (décembre 2023). No train no gain: revisiting efficient training algorithms for transformer-based language models [Communication écrite]. 37th Conference on Neural Information Processing Systems (NeurIPS 2023), New Orleans, LA, USA. https://dl.acm.org/doi/10.5555/3666122.3667244

Statistiques

Dimensions

Actions réservées au personnel

Afficher document Afficher document