<  Retour au portail Polytechnique Montréal

Interpretable Neural Network Models for Fault Detection and Diagnosis in Chemical Process Systems

Benjamin Nguyen

Mémoire de maîtrise (2024)

[img] Accès restreint: Personnel autorisé jusqu'au 22 août 2025
Conditions d'utilisation: Tous droits réservés
Afficher le résumé
Cacher le résumé

Résumé

La surveillance des procédés industriels via la détection et le diagnostic automatiques de défaillances (Fault Detection and Diagnosis, FDD) permet de garantir la fiabilité et la rentabilité économique de leur opération. Les progrès récents de l’intelligence artificielle et de l’apprentissage automatique ont stimulé les performances des modèles FDD, en parti-culier grâce aux méthodes d’apprentissage profond. Cependant, les modèles de diagnostic à base de réseaux neuronaux profonds sont considérés comme des boîtes noires où le raison-nement menant au diagnostic de défaillance n’est pas clair. Cet aspect freine leur utilisation par l’industrie. Par conséquent, dans cette thèse, des architectures de réseaux de neurones interprétables pour la FDD des procédés industriels sont explorés. Nous considérons, en particulier, des approches visant à intégrer des informations structurelles du procédé dans l’architecture du réseau neuronal et à donner un sens physique aux nœuds des couches cachées. Ces deux approches sont analysées au travers d’études de cas afin de déterminer si elles améliorent l’interprétabilité du modèle. Une mesure qualitative de l’identification des signa-tures de défaillances dans les activations de nœuds est utilisée pour évaluer l’interprétabilité du modèle. La première méthode testée est une adaptation d’un réseau de neurones récurrents (RNN) à poids contraint, originalement développé pour une application à la commande prédictive par modèle interne. Ce modèle est utilisé, dans le cadre de ce travail, pour une application à la surveillance de procédés où la tâche est un problème de classification au lieu d’un problème de régression. Les contraintes imposent des groupes de nœuds représentant un procédé ou des unités d’opération dont les activations indiquent l’état défectueux. Le modèle proposé est d’abord testé sur un exemple simple puis sur des défaillances du procédé de référence Tennessee Eastman Process (TEP). Le modèle s’avère interprétable pour les défaillances qui n’affectent qu’un sous-ensemble d’unités, tels que les défauts localisés. Cependant, pour les défaillances à l’échelle de l’usine, des signatures de défaillances discriminantes n’ont pas pu être identifiées.

Abstract

Process monitoring through automated fault detection and diagnosis (FDD) plays a cru-cial role in maintaining a productive and reliable chemical process system. Developments in artificial intelligence and machine learning have boosted FDD model performances espe-cially with deep learning methods. However, these neural network models are considered black-boxes where the reasoning behind a diagnosis is unclear, hindering industrial adoption. Therefore, in this thesis, interpretable neural network frameworks for FDD in process systems are explored. In particular, strategies to embed process structural knowledge into the neural network architecture and give a physical meaning to the hidden layer nodes are investigated to determine if they enhance model interpretability. A qualitative metric of identifying fault signatures within the node activations is used to gauge the interpretability of the model. The first method tested is an adaptation of a weight-constrained recurrent neural network, originally applied for model predictive control. Here, the model is used for FDD where the task is a classification problem instead of a regression problem. The constraints enforce groups of nodes to represent process or operating units whose activations indicate the faulty state of the unit. The model is tested on a toy example and selected faults from the benchmark Tennessee Eastman Process (TEP). The model is found to be interpretable for faults that only affect a subset of units such as localized faults, while for plant-wide faults, discriminative fault signatures could not be identified.

Département: Département de génie chimique
Programme: Génie chimique
Directeurs ou directrices: Moncef Chioua
URL de PolyPublie: https://publications.polymtl.ca/57993/
Université/École: Polytechnique Montréal
Date du dépôt: 22 août 2024 13:56
Dernière modification: 23 août 2024 00:55
Citer en APA 7: Nguyen, B. (2024). Interpretable Neural Network Models for Fault Detection and Diagnosis in Chemical Process Systems [Mémoire de maîtrise, Polytechnique Montréal]. PolyPublie. https://publications.polymtl.ca/57993/

Statistiques

Total des téléchargements à partir de PolyPublie

Téléchargements par année

Provenance des téléchargements

Actions réservées au personnel

Afficher document Afficher document