Jugement éthique dans les systèmes multi-agents


L'usage croissant des systèmes multi-agents dans divers domaines soulève la nécessité de concevoir des agents capables de prendre des décisions s'appuyant sur des principes éthiques. De plus en plus de travaux proposent de telles approches. Toutefois, ces systèmes considèrent principalement une perspective centrée sur l'agent et mettent de côté le fait que ces agents sont en interaction avec d'autres agents, artificiels ou humains qui utilisent d'autres concepts éthiques. Dans cet article, nous nous intéressons à ce problème en proposant un modèle de jugement éthique qu'un agent peut utiliser pour juger à la fois de son propre comportement et de celui des autres agents au sein de systèmes multi-agents. Ce modèle est basé sur une approche rationaliste et explicite qui distingue théorie du bien et théorie du juste. Une preuve de concept implémentée en Answer Set Programming est fournie pour illustrer ces fonctionnalités.