<  Retour au portail Polytechnique Montréal

Vérification automatique de la confidentialité différentielle

Lotfi Larbaoui

Mémoire de maîtrise (2020)

Document en libre accès dans PolyPublie
[img]
Affichage préliminaire
Libre accès au plein texte de ce document
Conditions d'utilisation: Tous droits réservés
Télécharger (1MB)
Afficher le résumé
Cacher le résumé

Résumé

Ce rapport étudie la vérification quantitative de la confidentialité différentielle dans les systèmes distribués. Tout d'abord, nous examinons l'applicabilité de la vérification des modèles probabilistes pour fournir des garanties sur le comportement des système différentiellement confidentiels. Ensuite, nous concevons des méthodes qui extraient automatiquement les modèles des systèmes à partir d'une description de haut niveau, puis nous effectuons une vérification probabiliste de ces modèles. Nous développons à cette fin une nouvelle méthodologie de la vérification quantitative. Nous décrivons des méthodes formelles pour analyser un large éventail de propriétés de confidentialité, notamment la précision et la perte de la confidentialité. Nous avons également réexprimé la notion de confidentialité différentielle pour raisonner sur deux exécutions de programmes similaires. À notre connaissance, il s'agit des analyses de confidentialité les plus genérales pour les systèmes distribués. Deuxièmement, nous fournissons des preuves de couplage basées sur les relations de levage approximatives pour prouver la confidentialité différentielle dans les chaînes de Markov. Nous proposons également des algorithmes de vérification symbolique de la confidentialité. L'avantage de notre approche est que ces algorithmes peuvent être facilement implémentés dans n'importe quel outil de vérification de modèles probabilistes. Enfin, nous définissons une approche pour extraie des contre-exemples qui peuvent être utilisés pour fin de débogage similaires en fournissant une exécution qui viole la confidentialité.

Abstract

This report studies the quantitative verification of differential privacy in distributed systems. First, we examine the applicability of probabilistic model checking to provide guarantees on the behavior of differentially private systems. Next, we design methods that automatically extract the models of the systems from a high-level description, then we perform a probabilistic verification of these models. To this end, we are developing a new methodology for quantitative verification. We describe formal methods for analyzing a wide range of privacy properties, including accuracy and privacy loss. We have also re-expressed the notion of differential privacy to reason about two executions of similar programs. To our knowledge, this is the most general privacy analysis for distributed systems. Second, we provide evidence of coupling based on approximate lifting relationships to prove differential privacy in Markov chains. We also offer symbolic algorithm for verification of confidentiality. The advantage of our approach is that these algorithms can be easily implemented in any probabilistic model checker tool. Finally, we define an approach for extracting counterexamples that can be used for similar debugging purposes by providing an execution that violates confidentiality.

Département: Département de génie informatique et génie logiciel
Programme: Génie informatique
Directeurs ou directrices: John Mullins
URL de PolyPublie: https://publications.polymtl.ca/5228/
Université/École: Polytechnique Montréal
Date du dépôt: 13 oct. 2020 12:42
Dernière modification: 08 avr. 2024 09:19
Citer en APA 7: Larbaoui, L. (2020). Vérification automatique de la confidentialité différentielle [Mémoire de maîtrise, Polytechnique Montréal]. PolyPublie. https://publications.polymtl.ca/5228/

Statistiques

Total des téléchargements à partir de PolyPublie

Téléchargements par année

Provenance des téléchargements

Actions réservées au personnel

Afficher document Afficher document