Kamran Chitsaz, Quentin Fournier, Goncalo Filipe Torcato Mordido et Sarath Chandar Anbil Parthipan
Communication écrite (2024)
Un lien externe est disponible pour ce document| Département: | Département de génie informatique et génie logiciel |
|---|---|
| URL de PolyPublie: | https://publications.polymtl.ca/63033/ |
| Nom de la conférence: | Conference on Empirical Methods in Natural Language Processing (EMNLP 2024) |
| Lieu de la conférence: | Miami, FL, USA |
| Date(s) de la conférence: | 2024-11-12 - 2024-11-16 |
| Maison d'édition: | Association for Computational Linguistics (ACL) |
| DOI: | 10.18653/v1/2024.findings-emnlp.787 |
| URL officielle: | https://doi.org/10.18653/v1/2024.findings-emnlp.78... |
| Date du dépôt: | 04 mars 2025 09:05 |
| Dernière modification: | 04 mars 2025 09:05 |
| Citer en APA 7: | Chitsaz, K., Fournier, Q., Torcato Mordido, G. F., & Anbil Parthipan, S. C. (novembre 2024). Exploring Quantization for Efficient Pre-Training of Transformer Language Models [Communication écrite]. Conference on Empirical Methods in Natural Language Processing (EMNLP 2024), Miami, FL, USA. https://doi.org/10.18653/v1/2024.findings-emnlp.787 |
|---|---|
Statistiques
Dimensions
