Un protocole fonde sur un dilemme pour se prémunir des collusions dans les systèmes de réputation


Dans les systèmes ouverts et décentralisés, un grand nombre d'agents interagissent afin de partager des ressources. Afin de se protéger de potentiels agents malveillants, des systèmes de réputation sont mis en place. Ils évaluent le comportement des agents a posteriori mais, comme ils se fondent sur une agrégation de confiances locales, ils sont eux-mêmes vulnérables aux manipulations, et en particulier aux coalitions malveillantes qui font de l'autopromotion. Dans cet article, nous proposons une approche fondée sur la théorie des jeux pour prévenir de telles manipulations. Sa caractéristique principale est de permettre aux agents honnêtes d'utiliser à leur tour une manipulation, appelée attaque Sybil, pour tromper les agents malveillants et les placer face à un dilemme. Nous montrons théoriquement et empiriquement que la meilleure réponse à ce dilemme est une stratégie en équilibre mixte qui conduit les agents malveillants à abandonner la plupart de leurs manipulations. In decentralized and open systems, a large number of agents interact in order to share resources. In order to prevent malicious behaviors, reputation systems are considered. Those systems evaluates the behavior of the agents afterwards. But, as reputation systems are based on the aggregation of local trust between the agents, they are vulnerable to manipulations, particularly to self-promotion among malicious coalitions. In this paper, we propose a gametheoretic approach to prevent such manipulations. Its main feature is that honest agents use in turn a manipulation, called Sybil attack, to fool malicious agents and to drive them into a dilemma. We show both theoretically and empirically that the best response to this dilemma is mixed strategy that leads the malicious agents to give up most of their manipulations.