<  Retour au portail Polytechnique Montréal

Exploring Quantization for Efficient Pre-Training of Transformer Language Models

Kamran Chitsaz, Quentin Fournier, Goncalo Filipe Torcato Mordido et Sarath Chandar Anbil Parthipan

Communication écrite (2024)

Un lien externe est disponible pour ce document
Département: Département de génie informatique et génie logiciel
URL de PolyPublie: https://publications.polymtl.ca/63033/
Nom de la conférence: Conference on Empirical Methods in Natural Language Processing (EMNLP 2024)
Lieu de la conférence: Miami, FL, USA
Date(s) de la conférence: 2024-11-12 - 2024-11-16
Maison d'édition: Association for Computational Linguistics (ACL)
DOI: 10.18653/v1/2024.findings-emnlp.787
URL officielle: https://doi.org/10.18653/v1/2024.findings-emnlp.78...
Date du dépôt: 04 mars 2025 09:05
Dernière modification: 04 mars 2025 09:05
Citer en APA 7: Chitsaz, K., Fournier, Q., Torcato Mordido, G. F., & Anbil Parthipan, S. C. (novembre 2024). Exploring Quantization for Efficient Pre-Training of Transformer Language Models [Communication écrite]. Conference on Empirical Methods in Natural Language Processing (EMNLP 2024), Miami, FL, USA. https://doi.org/10.18653/v1/2024.findings-emnlp.787

Statistiques

Dimensions

Actions réservées au personnel

Afficher document Afficher document