<  Retour au portail Polytechnique Montréal

Towards Fine-tuning Pre-trained Language Models with Integer Forward and Backward Propagation

Mohammadreza Tayaranian Hosseini, Alireza Ghaffari, Marzieh S. Tahaei, Mehdi Rezagholizadeh, Masoud Asgharian et Vahid Partovi Nia

Communication écrite (2023)

Un lien externe est disponible pour ce document
Département: Département de mathématiques et de génie industriel
URL de PolyPublie: https://publications.polymtl.ca/74322/
Nom de la conférence: Findings of the Association for Computational Linguistics (EACL 2023)
Lieu de la conférence: Dubrovnik, Croatia
Date(s) de la conférence: 2023-05-02 - 2023-05-06
Maison d'édition: Association for Computational Linguistics
DOI: 10.18653/v1/2023.findings-eacl.143
URL officielle: https://doi.org/10.18653/v1/2023.findings-eacl.143
Date du dépôt: 17 avr. 2026 15:06
Dernière modification: 17 avr. 2026 15:06
Citer en APA 7: Tayaranian Hosseini, M., Ghaffari, A., Tahaei, M. S., Rezagholizadeh, M., Asgharian, M., & Partovi Nia, V. (mai 2023). Towards Fine-tuning Pre-trained Language Models with Integer Forward and Backward Propagation [Communication écrite]. Findings of the Association for Computational Linguistics (EACL 2023), Dubrovnik, Croatia. https://doi.org/10.18653/v1/2023.findings-eacl.143

Statistiques

Dimensions

Actions réservées au personnel

Afficher document Afficher document