Thèse de doctorat (2017)
Document en libre accès dans PolyPublie |
|
Libre accès au plein texte de ce document Conditions d'utilisation: Tous droits réservés Télécharger (6MB) |
Résumé
Dans une entreprise nord américaine type, les coûts de non-qualité sont en moyenne de 20% de son chiffre d'affaires. Ces coûts sont certainement élevés et ils ne peuvent pas être, totalement, éliminés. Toutefois, les entreprises peuvent les réduire grâce à une meilleure maitrise des processus manufacturiers et à un meilleur contrôle qualité. Ces taches sont primordiales pour garantir l'efficacité des processus de fabrication et pour améliorer la qualité des produits. En effet, la qualité des produits est reliée aux paramètres machines. Cependant, actuellement dans l'industrie, les paramètres machines et les variables des produits sont contrôlés séparément omettant ainsi les relations qui peuvent exister entre eux. La vérification individuelle séparée peut être longue et complexe. Elle peut mener à la non-détection de certains défauts ou encore à la génération de certaines fausses alarmes. En effet, la prise en compte des relations entre les paramètres des équipements et/ou les variables des produits est indispensable. Pour tenir compte des dépendances entre les variables et paramètres, plusieurs auteurs ont proposé des cartes de contrôle multidimensionnelles, telles que les versions multidimensionnelles des cartes connues telles que MEWMA, CUSUM et Hotelling. Ces cartes ont un problème majeur. Elles supposent que les données proviennent d'une distribution normale, ce qui n'est pas toujours le cas. D'autres versions des cartes de contrôle ne supposent pas la normalité des données, mais supposent que leur distribution est connue. Or, peu d'industriels connaissent ce genre d'informations. D'autres techniques de contrôle de processus ou de détection de défauts ont été suggérées. Ces techniques sont soient des techniques basées sur des algorithmes d'apprentissage statistique ou de data mining soient des cartes de contrôle qui ne dépendent pas de la distribution des données. Ces outils ont montré des résultats assez intéressant en termes de détection de défauts et de génération de fausses alarmes. Par contre, elles fonctionnent comme une sorte de boite noire. Si un défaut est détecté, le diagnostic doit passer par des cartes de contrôle monodimensionnelles et doit idéalement se faire par un expert. Ces outils proposent rarement un support visuel de diagnostic. Ceci peut être du au fait que les graphes multidimensionnelles sont généralement méconnus ou, parfois, difficile à interpréter. Ainsi, ils sont rarement exploités dans le développement des outils de contrôle. Dans ce document, nous proposons d'intégrer un type de graphes multidimensionnelles, les coordonnées parallèles avec les concepts des outils de contrôle pour soutenir le contrôle qualité. Nous proposons un outil visuel de contrôle de processus, qui est ne dépend pas de la distribution des données et qui tient en compte les relations entre les variables considérées. Cet outil permet de faire le diagnostic d'un défaut détecté. Cet outil permet de générer deux types de cartes de contrôle multidimensionnelles selon la disponibilité des données historiques. Les deux cartes sont visualisées en coordonnées parallèles. La première version est proposée pour le cas ou un nombre assez important d'observations historiques est disponible. Elle est basée sur la visualisation des limites multidimensionnelles de la zone de fonctionnement appelée best operating zone. Cette zone est encore répartie en plusieurs zones de fonctionnement. La deuxième version est adaptée au cas ou le nombre de données historiques est limité. Elle est basée sur la caractérisation de la zone de fonctionnement à l'aide des graphes de densité. Avant de caractériser les zones de fonctionnement, pour garantir une représentation optimisée des variables en coordonnées parallèles, un arrangement des variables dans l'objectif de souligner les relations entre les variables ou d'améliorer la détection des segments de fonctionnement est réalisé. Un cadre général d'arrangement de variables est proposé. Ce cadre dépend de l'objectif d'arrangement. Pour conclure, la conception des cartes de contrôle passe par 3 étapes principales : — L'arrangement des variables ; — La caractérisation de la zone opérationnelle (zone de fonctionnement) ; — la représentation et la classification des nouvelles observations. Chaque étape du développement de l'outil est évalué à l'aide d'une ou plusieurs bases simulées ou réelles pour montrer les avantages et les limitations des algorithmes et des outils suggérés. L'algorithme d'arrangement des variables montre sa capacité à détecter les dépendances entre les attributs et aussi à séparer les données. Les cartes de contrôle basées sur la best operating zone (première version) offre un taux de détection de défauts assez élève (environ 76% pour la base de données de spam) et un taux de fausses alarmes acceptable comparé aux cartes d'Hotelling. De plus, ces cartes montrent une performance comparables voire meilleure que celles des cartes d'Hotelling selon le critère de la longueur opérationnelle moyenne (ARL). Les cartes de contrôle densité, développées avec un nombre de données limitées, montrent un taux de classification assez intéressants comparées aux réseaux de neurones et aux cartes d'Hotelling. Elles donnent un taux de classification correcte autour de 75% en se basant sur des cartes développées avec 100 observations historiques. Le même taux est trouvé avec les réseaux de neurones mais avec 300 observations historiques (d'apprentissage). Le taux de classification des cartes d'Hotelling est, significativement, plus faible que celui des cartes densité et des réseaux de neurones. Les tests montrent que les solutions proposées s'alignent avec les objectifs pour lesquelles elles ont été proposées, notamment pour l'aspect visualisation et diagnostic des cartes de contrôle.
Abstract
Quality control and process monitoring are very important task for manufacturing processes. They guaranty the efficiency of the manufacturing process and the quality of the final products. Final product quality is directly related to equipment parameters.Despite the dependency between the process parameters and the product variables, they are separately monitored in most of the current industries. Generally, each parameter or variable is monitored in individual process control chart which might make the control a longer and more complex. This might, also, be very misleading. It might lead to the non-detection of some faults or to the generation of false alarms. Actually, taking into account the dependencies between product variables and process parameters is necessary. In order to do so, many authors suggest multivariate versions of known process control charts such as MEWMA, CUSUM and Hotelling. These charts have a major problem, that is they are under a very restrictive assumption, as they consider that all the variables and parameters follow a normal distribution. Authors suppose that somehow the central limit theorem will solve the problem of data non-normality. This is true when the charts are proposed for monitoring statistics such as the mean or the standard deviation, but not accurate when it is about monitoring individual observations. Some authors suggest techniques that do not suppose the normality of the data but that suppose that it is known. Few industrials know this kind of information, i.e. statistical characteristics of data. As an improvement of the parametric charts, non-parametric process control tools were proposed. These tools are either techniques based on machines learning or data mining algorithms or distribution free control charts. They show interesting results in fault detection and false alarm generation. However, they work as a black box. It is difficult to understand or interpret the obtained results. If any fault is detected, the diagnosis needs to be proceeded by an expert usually supported by monodimensional charts. Actually, practitioners are still not familiar with multidimensional graphs. In this thesis, we introduce a visual distribution free multidimensional process control tool that takes into account the dependencies between the different variables and parameters. This tool integrates parallel coordinates with the concepts of process control tools. So, it enables fault detection and also diagnosis as it conceives two types of visual control charts, depending on the availability of the historical (training) data. Both charts are visualized in parallel coordinates. The first version is proposed for the case where the training dataset is large. It is based on the visualization of control limits, i.e. the limits of the best operating zone. This zone that contains all possible functional observations is, then, divided into small functional zones in a way that the probability of not detecting a fault is reduced. The second version of chart is proposed for the case where the number of historical data is limited. The characterization of the operating zone is based on density graphs. However, before characterizing the operating zone, a variable reordering is applied to ensure an optimized representation of the variables in the parallel coordinate graph. The objective of this step is to highlight relations among variables, highlight data structure and help cluster detection. A general variable reordering framework is presented. It depends on the objective of the reordering. To conclude, conceiving a control chart, as it is proposed in this thesis goes through 3 steps: — variable reordering; — characterizing the functional (operating) zone; — representing and classifying the new observations. Each step of the development of the tool is evaluated based on different databases to analyze the advantages and limitations of the proposed algorithms. The suggested variable reordering framework shows its capacity to adapt to the objective of reordering. Twos objective were studied, highlighting variable dependence and data separation. The results obtained for the first version of the control chart are comparable (or better) than Hotelling chart, 76% of correct classification compared to 69% for Hotelling charts (for SPAM data). This is confirmed when the average run lengths are compared (ARL). Moreover, the density charts give, also, interesting results compared to Hotelling charts and neural networks. It reaches 75% of correct classification rate with 100 historical observations, whereas, neural networks reach the same rate with 300 observations. Hotelling charts do not give interesting results when the number of historical observations is limited. Besides, their good performance, the proposed charts provide a visual support that enables the interpretation of the results and also, the diagnosis of the detected faults which is not offered by the other techniques.
Département: | Département de mathématiques et de génie industriel |
---|---|
Programme: | Doctorat en génie industriel |
Directeurs ou directrices: | Samuel Bassetto et Vahid Partovi Nia |
URL de PolyPublie: | https://publications.polymtl.ca/2953/ |
Université/École: | École Polytechnique de Montréal |
Date du dépôt: | 03 avr. 2018 14:49 |
Dernière modification: | 29 sept. 2024 06:49 |
Citer en APA 7: | Tilouche, S. (2017). Nouvelle approche de maîtrise de processus intégrant les cartes de contrôle multidimensionnelles et les graphes en coordonnées parallèles [Thèse de doctorat, École Polytechnique de Montréal]. PolyPublie. https://publications.polymtl.ca/2953/ |
---|---|
Statistiques
Total des téléchargements à partir de PolyPublie
Téléchargements par année
Provenance des téléchargements