![]() | Monter d'un niveau |
Ce graphique trace les liens entre tous les collaborateurs des publications de {} figurant sur cette page.
Chaque lien représente une collaboration sur la même publication. L'épaisseur du lien représente le nombre de collaborations.
Utilisez la molette de la souris ou les gestes de défilement pour zoomer à l'intérieur du graphique.
Vous pouvez cliquer sur les noeuds et les liens pour les mettre en surbrillance et déplacer les noeuds en les glissant.
Enfoncez la touche "Ctrl" ou la touche "⌘" en cliquant sur les noeuds pour ouvrir la liste des publications de cette personne.
Un nuage de mots est une représentation visuelle des mots les plus fréquemment utilisés dans un texte ou un ensemble de textes. Les mots apparaissent dans différentes tailles, la taille de chaque mot étant proportionnelle à sa fréquence d'apparition dans le texte. Plus un mot est utilisé fréquemment, plus il apparaît en grand dans le nuage de mots. Cette technique permet de visualiser rapidement les thèmes et les concepts les plus importants d'un texte.
Dans le contexte de cette page, le nuage de mots a été généré à partir des publications de l'auteur {}. Les mots présents dans ce nuage proviennent des titres, résumés et mots-clés des articles et travaux de recherche de cet auteur. En analysant ce nuage de mots, vous pouvez obtenir un aperçu des sujets et des domaines de recherche les plus récurrents et significatifs dans les travaux de cet auteur.Le nuage de mots est un outil utile pour identifier les tendances et les thèmes principaux dans un corpus de textes, facilitant ainsi la compréhension et l'analyse des contenus de manière visuelle et intuitive.
Kouemo Ngassom, S., Moradidakhel, A., Tambon, F., & Khomh, F. (juillet 2024). Chain of Targeted Verification Questions to Improve the Reliability of Code Generated by LLMs [Communication écrite]. 1st ACM International Conference on AI-Powered Software (ALWARE 2024), Porto de Galinhas, Brazil. Lien externe
Mahu, A., Singh, A., Tambon, F., Ouellette, B., Delisle, J.-F., Paul, T., Khomh, F., Marois, A., & Doyon-Poulin, P. (2024). Validation of Vigilance Decline Capability in A Simulated Test Environment: A Preliminary Step Towards Neuroadaptive Control. AHFE international, 126, 45-59. Lien externe
Morovati, M. M., Nikanjam, A., Tambon, F., Khomh, F., & Jiang, Z. M. (2024). Bug characterization in machine learning-based systems. Empirical Software Engineering, 29(1), 14 (29 pages). Lien externe
Morovati, M. M., Tambon, F., Taraghi, M., Nikanjam, A., & Khomh, F. (2024). Common challenges of deep reinforcement learning applications development: an empirical study. Empirical Software Engineering, 29, 95 (33 pages). Lien externe
Tambon, F., Nikanjam, A., Zid, C., Khomh, F., & Antoniol, G. (2025). TaskEval: Assessing Difficulty of Code Generation Tasks for Large Language Models. ACM Transactions on Software Engineering and Methodology. Lien externe
Tambon, F., Moradidakhel, A., Nikanjam, A., Khomh, F., Desmarais, M. C., & Antoniol, G. (2025). Bugs in large language models generated code: an empirical study. Empirical Software Engineering, 30(3), 48 pages. Lien externe
Tambon, F. (2024). Who Tests the Testers? Assessing the Effectiveness and Trustworthiness of Deep Learning Model Testing Techniques [Thèse de doctorat, Polytechnique Montréal]. Disponible
Tambon, F., Khomh, F., & Antoniol, G. (2024). GIST : Generated Inputs Sets Transferability in Deep Learning. ACM Transactions on Software Engineering and Methodology. Lien externe
Taraghi, M., Dorcelus, G., Foundjem, A. T., Tambon, F., & Khomh, F. (mars 2024). Deep Learning Model Reuse in the HuggingFace Community: Challenges, Benefit and Trends [Communication écrite]. 31st IEEE International Conference on Software Analysis, Evolution and Reengineering (SANER 2024), Rovaniemi, Finland. Lien externe
Tambon, F. (2024). GIST: Generated Inputs Sets Transferability in Deep Learning (Part 2) [Ensemble de données]. Lien externe
Tambon, F., Nikanjam, A., An, L., Khomh, F., & Antoniol, G. (2024). Silent bugs in deep learning frameworks: an empirical study of Keras and TensorFlow. Empirical Software Engineering, 29(1), 10 (34 pages). Lien externe
Tambon, F., Majfinasab, V., Nikanjam, A., Khomh, F., & Antoniol, G. (avril 2023). Mutation testing of deep reinforcement learning based on real faults [Communication écrite]. 16th IEEE Conference on Software Testing, Verification and Validation (ICST 2023), Dublin, Ireland. Lien externe
Tambon, F., Khomh, F., & Antoniol, G. (2023). A probabilistic framework for mutation testing in deep neural networks. Information and Software Technology, 155, 107129 (13 pages). Lien externe
Tambon, F., Laberge, G., An, L., Nikanjam, A., Mindom, P. S. N., Pequignot, Y., Khomh, F., Antoniol, G., Merlo, E., & Laviolette, F. (2022). How to certify machine learning based safety-critical systems? A systematic literature review. Automated Software Engineering, 29(2). Lien externe
Tambon, F., Khomh, F., & Antoniol, G. (2022). A Probabilistic Framework for Mutation Testing in Deep Neural Networks - Models archive Part 1 [Ensemble de données]. Lien externe
Tambon, F., Khomh, F., & Antoniol, G. (2022). A Probabilistic Framework for Mutation Testing in Deep Neural Networks - Models archive Part 2 [Ensemble de données]. Lien externe
Tambon, F., Khomh, F., & Antoniol, G. (2022). A Probabilistic Framework for Mutation Testing in Deep Neural Networks - Models archive Part 3 [Ensemble de données]. Lien externe