<  Retour au portail Polytechnique Montréal

Analyse du niveau de granularité dans la conception d'un jumeau numérique de chaîne d'approvisionnement : cas de l'entreprise Kruger

Achraf Challakhi

Mémoire de maîtrise (2025)

Document en libre accès dans PolyPublie
[img]
Affichage préliminaire
Libre accès au plein texte de ce document
Conditions d'utilisation: Tous droits réservés
Télécharger (1MB)
Afficher le résumé
Cacher le résumé

Résumé

Dans un environnement industriel marqué par la complexi-fication croissante des chaînes d’approvisionnement et la généralisation de la transformation numérique, la maîtrise de la performance logistique repose désormais sur la capacité à exploiter les données massives et à modéliser les processus opérationnels de manière réaliste. La simulation à base d’agents et les jumeaux numériques offrent dans ce contexte de nouvelles perspectives pour représenter les interactions au sein des systèmes logistiques et évaluer différents scénarios de gestion. Toutefois, la conception de tels modèles soulève un défi majeur : celui du choix du niveau de granularité approprié. Un modèle trop détaillé devient coûteux et lent à exécuter, tandis qu’un modèle trop simplifié perd en fiabilité et en pertinence décisionnelle. Ce mémoire traite précisément de cette question du compromis entre précision et efficacité de simulation. L’objectif est d’étudier le niveau de granularité et les agrégations dans une simulation de chaîne d’approvisionnement, afin d’assurer, à la fois, une représentation fidèle des réalités opérationnelles et une performance computationnelle satisfaisante permettant de concilier complexité maîtrisée et validité opérationnelle. Pour ce faire, une analyse comparative a été mise en œuvre, s’appuyant sur les données réelles d’un partenaire industriel. Trois niveaux de granularité ont été modélisés et simulés : une configuration de base sans agrégation, une agrégation managériale par analyse ABC croisée, et une agrégation statistique par clustering K-means. Deux méthodes de génération des variables aléatoires pour modéliser la demande (l’une ajustée par des lois probabilistes, l’autre rigide par une loi normale tronquée) ont également été testées. Face à la nature très volatile de la demande réelle, les trois configurations ont produit de bons résultats, chacune mettant en lumière un compromis différent. La configuration de base a fidèlement reproduit la moyenne (ratio de 0.966) et la volatilité inhérente aux données (écart-type de 0.74). La configuration ABC, via une approche managériale, a offert une stabilité remarquable (écart-type de 0.077) tout en conservant une bonne précision moyenne (ratio de 0.86). Enfin, la configuration K-means, via une approche statistique, a atteint une précision moyenne quasi parfaite (ratio de 1) tout en maîtrisant les extrêmes de la volatilité. L’étude a surtout démontré que l’efficacité d’une agrégation dépend de l’adéquation entre la logique de groupement et la méthode de génération des variables aléatoires (ajustée ou rigide). Au-delà de son cadre spécifique, ce travail contribue à la réflexion sur l’adaptation du niveau de granularité dans les modèles de jumeaux numériques (Human actuated Digital Twins) des chaînes d’approvisionnement. Il met en avant l’importance d’un équilibre entre exhaustivité et performance pour garantir la fiabilité des simulations et l’efficacité des décisions logistiques dans un environnement dynamique et incertain.

Abstract

In an industrial environment characterized by the increasing complexity of supply chains and the widespread adoption of digital transformation, logistics performance management now relies on the ability to exploit large-scale data and to realistically model operational processes. In this context, agent-based simulation and digital twins offer new perspectives for representing interactions within logistics systems and for evaluating different management scenarios. However, the design of such models raises a major challenge: the selection of an appropriate level of granularity. A model that is too detailed becomes costly and slow to execute, whereas an overly simplified model loses reliability and decision-making relevance. This thesis specifically addresses the issue of the trade-off between simulation accuracy and computational efficiency. The objective is to study the level of granularity and aggregation strategies in supply chain simulation, in order to ensure both a faithful representation of operational realities and satisfactory computational performance, thereby reconciling controlled complexity with operational validity. To this end, a comparative analysis was conducted based on real data provided by an in-dustrial partner. Three levels of granularity were modeled and simulated: a baseline con-figuration without aggregation, a managerial aggregation based on cross ABC analysis, and a statistical aggregation using K-means clustering. Two demand generation methods were also tested: a flexible approach based on probabilistic distributions and a rigid approach based on a truncated normal distribution. Given the highly volatile nature of real demand, all three configurations produced good results, each highlighting a different trade-off. The baseline configuration accurately reproduced both the mean (ratio of 0.966) and the inher-ent volatility of the data (standard deviation of 0.74). The ABC configuration, through a managerial approach, provided remarkable stability (standard deviation of 0.077) while main-taining good average accuracy (ratio of 0.86). Finally, the K-means configuration, through a statistical approach, achieved near-perfect average accuracy (ratio of 1.008) while effectively controlling extreme volatility. The study primarily demonstrated that the effectiveness of aggregation depends on the alignment between the grouping logic and the method used to generate random variables. Beyond its specific scope, this work contributes to the broader reflection on adapting the level of granularity in supply chain digital twin models (Human-Actuated Digital Twins). It high-lights the importance of balancing model completeness and performance to ensure simulation reliability and effective logistics decision-making in a dynamic and uncertain environment.

Département: Département de mathématiques et de génie industriel
Programme: Maîtrise recherche en génie industriel
Directeurs ou directrices: Maha Ben Ali et Jean-Marc Frayret
URL de PolyPublie: https://publications.polymtl.ca/72001/
Université/École: Polytechnique Montréal
Date du dépôt: 23 mars 2026 13:44
Dernière modification: 23 mars 2026 16:39
Citer en APA 7: Challakhi, A. (2025). Analyse du niveau de granularité dans la conception d'un jumeau numérique de chaîne d'approvisionnement : cas de l'entreprise Kruger [Mémoire de maîtrise, Polytechnique Montréal]. PolyPublie. https://publications.polymtl.ca/72001/

Statistiques

Total des téléchargements à partir de PolyPublie

Téléchargements par année

Provenance des téléchargements

Actions réservées au personnel

Afficher document Afficher document