Mémoire de maîtrise (2023)
Accès restreint: Personnel autorisé jusqu'au 18 mars 2025 Conditions d'utilisation: Tous droits réservés |
Résumé
La performance d’une équipe humain-machine dans un contexte de tâches décisionnelles est fortement influencée par des facteurs humains tels que la charge de travail de l’opérateur et sa confiance envers l’automation. Il devient essentiel de tenir compte de ces facteurs lors de la conception d’une stratégie de collaboration d’une telle équipe. Cependant, la confiance et la charge de travail évoluent dans le temps en fonction des interactions entre l’humain et la machine. Dans ce contexte, une approche prometteuse consiste à adopter une stratégie de collaboration adaptative qui s’ajuste en fonction de l’état cognitif de l’opérateur. Dans ce mémoire, une politique de collaboration adaptative est proposée, où l’automation décide quelles tâches décisionnelles spécifiques devraient être envoyées à l’humain après avoir d’abord observé l’ensemble des tâches à effectuer. On parlera donc de renvois de décisions pour décrire ces tâches qui sont envoyées à l’humain. Ce dernier, quant à lui, peut choisir de suivre ou non cette recommandation en fonction de son état de confiance. Nous posons comme hypothèse principale qu’il y a une plus grande incertitude quant à la réponse de l’opérateur, soit sa disposition à suivre la recommandation de l’automation, lorsque son niveau de confiance envers l’automation est faible. La stratégie de l’automation repose sur la résolution d’un processus décisionnel Markovien et utilise des modèles quantitatifs des performances humaines ainsi qu’un modèle dynamique simplifié de la confiance humaine envers l’automation. Nous démontrons analytiquement que, sous certaines hypothèses, la politique d’action optimale consiste en une politique myope qui vise à minimiser le coût de classification de l’équipe à chaque période. Des simulations sont réalisées afin d’évaluer l’efficacité de la politique optimale proposée, en la comparant à d’autres stratégies plus simples à implémenter. Des résultats de simulations permettent de conjecturer sur l’optimalité de la politique myope sous certaines conditions dans le cas d’un processus décisionnel Markovien partiellement observable. Cette situation correspond à un scénario plus réaliste pour lequel l’état de confiance de l’opérateur est estimé plutôt que mesuré directement.
Abstract
The performance of a human-machine team in making joint decisions is strongly influenced by human factors such as workload and trust in automation. It is essential to consider these factors when designing a collaboration strategy in human-automation teams. However, trust and workload evolve over time based on interactions between humans and machines. In this context, a promising approach is to adopt an adaptive collaboration strategy that adjusts to the operator’s cognitive state. In this thesis, an adaptive collaboration policy is proposed, where the automation decides which specific decision-making tasks should be delegated to humans after initially observing all the tasks. Therefore, we refer to these delegated tasks as "decision referrals". The human operator can choose to follow or disregard these recommendations based on their level of trust. Our main hypothesis is that there is greater uncertainty regarding the operator’s response, i.e., their willingness to follow the automation’s recommendation, when their level of confidence in the automation is low. The automation’s policy is based on solving a Markov decision process and utilizes quantitative models of human performance and a simplified dynamic model of human trust in automation. Our analysis shows that under certain assumptions, the optimal automation policy is a myopic policy that aims at minimizing the team’s classification cost at each period. Simulations are conducted to evaluate the effectiveness of the proposed optimal policy and compare it to other simpler implementation strategies. Simulation results allow us to conjecture about the optimality of the myopic policy under certain conditions in the case of a partially observable Markov decision process. This situation corresponds to a more realistic scenario where the operator’s confidence state is estimated rather than directly measured.
Département: | Département de génie électrique |
---|---|
Programme: | Génie électrique |
Directeurs ou directrices: | Jérôme Le Ny |
URL de PolyPublie: | https://publications.polymtl.ca/55833/ |
Université/École: | Polytechnique Montréal |
Date du dépôt: | 18 mars 2024 14:34 |
Dernière modification: | 27 sept. 2024 16:40 |
Citer en APA 7: | Drolet, A. (2023). Renvois de décisions dans une équipe humain-machine prise en compte de la confiance [Mémoire de maîtrise, Polytechnique Montréal]. PolyPublie. https://publications.polymtl.ca/55833/ |
---|---|
Statistiques
Total des téléchargements à partir de PolyPublie
Téléchargements par année
Provenance des téléchargements