Jean Kaddour, Oscar Key, Piotr Nawrot, Pasquale Minervini et Matt J. Kusner
Communication écrite (2023)
Document publié alors que les auteurs ou autrices n'étaient pas affiliés à Polytechnique Montréal
Un lien externe est disponible pour ce document| URL de PolyPublie: | https://publications.polymtl.ca/65852/ |
|---|---|
| Nom de la conférence: | 37th Conference on Neural Information Processing Systems (NeurIPS 2023) |
| Lieu de la conférence: | New Orleans, LA, USA |
| Date(s) de la conférence: | 2023-12-10 - 2023-12-16 |
| DOI: | 10.5555/3666122.3667244 |
| URL officielle: | https://dl.acm.org/doi/10.5555/3666122.3667244 |
| Date du dépôt: | 30 mai 2025 10:10 |
| Dernière modification: | 30 mai 2025 10:10 |
| Citer en APA 7: | Kaddour, J., Key, O., Nawrot, P., Minervini, P., & Kusner, M. J. (décembre 2023). No train no gain: revisiting efficient training algorithms for transformer-based language models [Communication écrite]. 37th Conference on Neural Information Processing Systems (NeurIPS 2023), New Orleans, LA, USA. https://dl.acm.org/doi/10.5555/3666122.3667244 |
|---|---|
Statistiques
Dimensions
