Privacité dans les DisCSP pour agents utilitaires Julien Savaux a Julien Vion a Sylvain Piechowiak a René Mandiau a Toshihiro Matsui b Katsutoshi Hirayama c Makoto Yokoo d Marius Silaghi e a LAMIH UMR CNRS 8201, Université de Valenciennes et du Hainaut-Cambrésis, France b Nagoya Institute of Technology, Japon c Kobe Naval University, Japon d Kyushu University, Japon e Florida Institute of Technology, USA Résumé La privacité a toujours été une motivation majeure pour la résolution de problèmes dis- tribués, et particulièrement dans les CSP dis- tribués (DisCSP). Cependant, même si plu- sieurs mesures ont été proposées pour la quantifier, aucune d’entre elles n’est large- ment utilisée. Dans ce papier, nous abor- dons le problème en supposant que les agents peuvent fonder leur raisonnement sur la base des utilités. Dans ce cadre, nous proposons un modèle de DisCSP basé sur des utili- tés, appelé UDisCSP. L’utilité de chaque état est traitée comme étant un compromis entre l’utilité de préserver la privacité et celle de parvenir à un accord sur les affectations des variables partagées. Mots-clés : Privacité, Problèmes de Sa- tisfaction de Contraintes Distribués, Agents Utilitaires Abstract Privacy has traditionally been a major mo- tivation for distributed problem solving, and particularly for Distributed CSP (DisCSP). However, even though several metrics have been proposed to quantify it, none of them is widely used. In this paper, we approach the problem by assuming that computation is performed among utility-based agents. In this context, we introduce a DisCSP model ba- sed on the utility measure, called Utilitarian Distributed Constraint Satisfaction Problems (UDisCSP). The utility of each state is esti- mated as the summation between the utility of preserved privacy and the utility of reaching an agreement on assignments for shared va- riables. Keywords: Privacy, Distributed Constraint Satisfaction Problems, Utilitarian Agents 1 Introduction Dans les problèmes de satisfaction de contraintes distribués (DisCSP), les agents doivent trouver des affectations cohérentes à un ensemble de variables partagées, en res- pectant des contraintes données. Pour trou- ver ces affectations, les agents échangent des messages jusqu’à ce qu’une solution soit trou- vée ou jusqu’à ce qu’un agent détecte qu’il n’y a pas de solution au problème. Ainsi, au travers des messages échangés, les agents dévoilent des informations au cours du pro- cessus de recherche de solution. Cette perte de privacité sur les informations échangées est une préoccupation importante dans les DisCSP [19]. C’est précisément sur le contrôle de la privacité abordée sous l’angle de l’utilité dans les DisCSP que se focalise ce papier. L’hypothèse habituelle est que les agents uti- litaires sont en mesure d’associer à chaque état une valeur d’utilité [14]. Si la préoccu- pation des agents est de préserver au mieux la privacité, on peut associer une valeur d’uti- lité à la privacité de chaque information dans la définition des problèmes locaux. Chaque agent doit également être en mesure de quan- tifier l’utilité pour l’obtention de la solu- tion globale. Dans notre approche, nous abor- dons le problème en supposant que la pri- vacité a une utilité qui peut être cumulée avec la valeur d’utilité pour résoudre le pro- blème. Nous évaluons la perte de privacité des agents au cours du processus de résolution d’un problème en fonction de l’utilité totale