Les Rencontres Francophones sur la Logique Floue et ses Applications (LFA) constituent la manifestation scientifique annuelle où les chercheurs et industriels se réunissent afin de faire le point sur les développements récents des théories de l'imprécis et de l'incertain. Celles-ci comprennent par exemple les sous-ensembles flous, les possibilités, les fonctions de croyance, les probabilités imprécises, les ensembles approximatifs et aléatoires ou des logiques non classiques. Le large éventail de domaines couverts va de la commande floue, domaine historique de l'application des ensembles flous, à l'apprentissage automatique en passant par l'aide à la décision, le raisonnement, la fusion d'informations ou encore les bases de données, pour en citer quelques-uns.
Pour cette 26e édition, 28 articles, qui témoignent de cette diversité, à la fois des points de vue théorique et applicatif, ont été retenus. Ce programme est complété par 2 conférences invitées :
– l'une donnée par Susana Vieira, senior researcher au Center of Intelligent Systems, CIS – IDMEC-IST, à l'université technique de Lisbonne, sur les systèmes flous dans les applications médicales,
– l'autre donnée par Carl Frélicot, professeur à l'université de La Rochelle au laboratoire MIA (Mathématiques, Images et Applications), sur l'utilisation d'opérateurs d'agrégation et leur combinaison pour la définition de mesures de similarité.
CONFÉRENCES INVITÉES
– Fuzzy Systems in Health Care (Susana Vieira)
– Quelques travaux sur la similarité dans [0; 1] (Carl Frélicot)
FONCTIONS DE CROYANCE
– Le problème de tournées de véhicules avec des demandes évidentielles (Nathalie Helal, Frédéric Pichon, Daniel Porumbel, David Mercier, Eric Lefèvre)
– Un cadre évidentiel générique pour apprendre des préférences multi-critères (Sébastien Destercke)
– Raisons de croire, raisons de douter - Une relecture de quelques travaux en théorie des fonctions de croyance (Didier Dubois, Francis Faux, Henri Prade)
– Calibration évidentielle conjointe de classifieurs SVM binaires fondée sur la régression logistique (Pauline Minary, Frédéric Pichon, David Mercier, Eric Lefèvre, Benjamin Droit)
– La maintenance des bases de cas dans un cadre évidentiel (Safa Ben Ayed, Zied Elouedi, Eric Lefèvre)
BASES DE DONNÉES
– Vers un modèle OLAP flou basé sur les bases de données NoSQL orientées graphes (Arnaud Castelltort, Anne Laurent)
– Calcul, stockage et utilisation efficaces de résumés linguistiques de données massives (Grégory Smits, Olivier Pivert, Pierre Nerzic)
– Stockage de grands volumes de données géospatiales floues dans les bases de données NoSQL (Besma Khalfi, Cyril de Runz)
APPRENTISSAGE AUTOMATIQUE
– Sélection d’attributs pour la classification d’objets 3D (François Meunier, Cyril de Runz, Christophe Marsala, Laurent Castanié)
– De la régression floue conventionnelle à la régression graduelle : analyse, réflexion et perspectives. Partie 1 : vision intervalliste (Reda Boukezzoula, Sylvie Galichet, Laurent Foulloy)
– De la régression floue conventionnelle à la régression graduelle : analyse, réflexion et perspectives. Partie 2 : vision graduelle (Reda Boukezzoula, Sylvie Galichet, Laurent Foulloy)
– Une méthode semi-supervisée pour la détection d’outliers basée sur les tables de décision ambiguës (Akram Hacini, Rabah Mazouzi, Herman Akdag)
– Vers la classification de matériaux à partir de compositions chimiques incertaines (Arnaud Grivet Sébert, Jean-Philippe Poli)
AGRÉGATION ET FUSION D’INFORMATIONS
– Sur les uninormes discrètes idempotentes (Miguel Couceiro, Jimmy Devillet, Jean-Luc Marichal)
– Utilisation des portes incertaines pour le calcul d’indicateurs pédagogiques (Guillaume Petiot)
– Sur l’efficacité des systèmes de formes normales de fonctions booléennes (Miguel Couceiro, Pierre Mercuriali, Romain Péchoux)
– Une approche possibiliste pour identifier les performances à améliorer dans le contexte incertain de la phase préliminaire de la conception (Diadie Sow, Abdelhak Imoussaten, Pierre Couturier, Jacky Montmain)
– Intégrales de Sugeno généralisées en analyse de données (Miguel Couceiro, Didier Dubois, Henri Prade, Agnès Rico)
COMMANDE
– Transformer les retards de transport variables en retards fixes : une application au problème du convoyeur (Thomas Laurain, Jimmy Lauber, Zsofia Lendek, Reinaldo Palhares)
– Régulation de la température lit d’un four d’incinération à lit fluidisé circulant : approche LMI (Souad Rabah, Hervé Coppier, Mohammed Chadli)
– Analyse du contrôle de la position assise par observateur à entrées inconnues via un modèle non-linéaire descripteur discret (Mathias Blandeau, Thierry-Marie Guerra, Philippe Pudlo, François Gabrielli, Victor Estrada-Manzo)
– Filtrage H1des systèmes non linéaires à retard dans un domaine fréquentiel fini (Doha El Hellani, Ahmed El Hajjaji, Roger Ceschi)
– D-stabilisation locale des modèles T-S incertains via des fonctions de Lyapunov non quadratiques (Abdelmadjid Cherifi, Kevin Guelton, Laurent Arcese)
– Commande robuste par retour de sortie statique des modèles flous incertains : approche descripteur (Amel Ferjani, Ahmed El Hajjaji, Mohamed Chaabane)
COMPARAISONS
– Sommes-nous arithmétiquement flous ? (Sébastien Lefort, Marie-Jeanne Lesot, Elisabetta Zibetti, Charles Tijus, Marcin Detyniecki)
– Extensions floues de structures conceptuelles de comparaison (Didier Dubois, Henri Prade, Agnès Rico)
– Quel est le degré de concordance entre un point et un intervalle ? (Olivier Strauss, Inés Couso, Julien Pérolat)
– Comparaison de transformations probabilité-possibilité aux moyens de mesures de dissemblance dans un contexte de détection de changements (Charles Lesniewska-Choquet, Gilles Mauris, Abdourrahmane Atto)
INDEX DES AUTEURS
Ce papier porte sur deux modèles du problème de tournées de véhicules avec capacité (CVRP, en abrégé, pour Capacitated Vehicle Routing Problem) où les demandes des clients sont incertaines et représentées en utilisant la théorie de l'évidence. Le premier modèle, appelé CVRP Belief-Constrained Programming, est une extension de l'approche Chance-Constrained Programming en programmation stochastique, o`u la contrainte en probabilité est remplacée par deux contraintes évidentielles, i.e., nous imposons des bornes minimales pour la croyance et la plausibilité que la somme des demandes sur chaque route respecte la capacité. Le deuxième modèle, appelé CVRP with Evidential Recourses, étend l'approche dite de recours : si le véhicule arrive à un certain client et ne peut pas satisfaire sa demande, il doit retourner au dépôt et revenir au client. L'incertitude sur les recours possibles sur chaque route est représentée par une fonction de croyance et le coût d'une route est alors son coût classique (sans recours) additionné du pire coût espéré des recours. Des tests numériques sont présentés pour les deux modèles.
La modélisation des préférences d'un décideur à propos d'alternatives multi-critère commence souvent par la collecte d'informations sur ces préférences, qui sont ensuite utilisées pour choisir un modèle issus d'une classe particulière (CP-net, moyenne pondérée). Ces procédures peuvent induire des inconsistances, dues par exemple à l'existence d'informations peu fiables et/ou d'un choix d'une classe de modèle trop restreinte. Nous proposons de résoudre ces problèmes en permettant au décideur d'exprimer une incertitude quand à l'information fournie sur les préférences, sous la forme d'une fonction de croyance.
G. Shafer présente sa théorie des fonctions de croyance essentiellement comme une théorie de la fusion des témoignages élémentaires. Mais toute fonction de croyance ne peut pas être vue comme la combinaison de fonctions à support simple (qui représentent de tels témoignages). Seules les fonctions de croyance dites à support séparable peuvent par définition être vues comme le résultat d'une telle combinaison. Ph. Smets en 1995 a indiqué que toute fonction de croyance pouvait être vue comme la combinaison de fonctions à support simple généralisées. Cette généralisation autorise une masse plus grande que 1 sur la tautologie. Cet article revisite ce travail de Smets, ainsi que des travaux thématiquement reliés de M. Ginsberg et de Th. Denoeux, afin d'en mieux comprendre la portée.
Dans le cadre de la combinaison de classifieurs, une étape de calibration, fondée sur la régression logistique, est généralement utilisée pour transformer indépendamment chaque sortie de classifieur en distribution de probabilité pour ensuite les combiner. Afin de mieux gérer les incertitudes cette calibration a récemment été redéfinie dans le cadre des fonctions de croyance. Dans cet article, nous proposons de calibrer conjointement les classifieurs en utilisant la régression logistique multiple, et d'étendre cette approche au cadre des fonctions de croyance. Notre approche évidentielle est testée sur des données simulées et réelles avec des classifieurs SVM binaires, et présente plusieurs avantages par rapport à sa version probabiliste et par rapport à l'approche évidentielle calibrant indépendamment chaque classifieur.
Les systèmes de raisonnement à base de cas se caract érisent par un apprentissage incrémental à partir des expériences passées. Toutefois, cette évolution peut devenir incontrôlable et menacer leur succès qui dépend essentiellement du temps de recherche et de la qualité des bases. Pour garantir cette qualité, la maintenance des bases de cas (CBM) est nécessaire. Cependant, beaucoup de travaux réalisés dans ce domaine réduisent leur compétence en terme de résolution de problèmes surtout quand les cas reposent sur des informations imparfaites. Afin de régler ce problème, nous proposons, dans cet article, une nouvelle approche de Maintenance des Bases de Cas dans un cadre Évidentiel (ECBM). Cette méthode est capable de gérer l'imperfection par l'utilisation de la théorie des fonctions de croyance. L'idée clé est d'utiliser une technique d'apprentissage automatique gérant l'incertitude, puis de distinguer entre les différents types de cas pour ensuite effectuer la maintenance.
Les modèles OLAP flous étendent les modèles proposés à partir des années 2000 pour gérer les données et/ou requêtes imprécises dans le contexte des bases de données décisionnelles. Ces modèles fournissent des outils de navigation à travers différents niveaux de granularité afin de permettre aux décideurs d'analyser les données notamment à différents niveaux de granularité. Des modèles multidimensionnels spécifiques, organisant les données sous la forme agrégée d'indicateurs analysés le long d'un ensemble de dimensions ont été proposés. Si des moteurs de bases de données purement OLAP ont été construits, la plupart des implantations actuelles de ces modèles exploitent les systèmes de bases de données relationnelles. Dans cet article, nous proposons d'exploiter les modèles NoSQL orientés graphes proposés plus récemment et permettant de traiter des volumes de données complexes plus importants. Ce travail est un premier pas vers la définition d'un langage dédié (Domain Specific Language) pour l'OLAP flou.
De nombreuses applications du soft computing reposent sur la réécriture linguistique de données selon un vocabulaire utilisateur. Dans ce papier, nous proposons un algorithme distribué de réécriture de grandes masses de données ainsi que des stratégies de stockage et d'indexation des vecteurs de réécritures produits. Nous montrons la capacité de l'algorithme à gérer de grandes quantités de données et comparons les différentes stratégies de stockage et d'indexation en vue de fournir des fonctionnalités d'exploration de données à partir du résumé.
De nos jours, de nombreuses applications exploitent les systèmes NoSQL pour le stockage des données géospatiales. Cependant, la question de la véracité des données dans ces systèmes se pose toujours. Si les données sont géospatiales et plus encore imprécises, des complexités supplémentaires apparaissent liées à leur syntaxe et leurs caractéristiques sémantiques. Notre proposition aborde certains problèmes de véracité dans les systèmes NoSQL document. Elle présente une approche guidée par le schéma permettant l'identification des critères `a respecter pour valider un stockage cohérent d'entités géospatiales imprécises.
Dans cet article, une approche de sélection d'attributs pour la classification est proposée. Elle est basée sur l'utilisation d'un degré de typicalité afin de mettre en avant des sous-parties prototypiques des classes. Combinée à une méthode de classification supervisée d'objets 3D, son efficacité est validée expérimentalement et permet une amélioration des scores de prédiction.
Cet article propose une analyse et une révision de la régression paramétrique à base d'intervalles, vue comme la clef de voûte de la régression graduelle. Cette dernière, qui sera abordée dans la deuxième partie de cet article, représente une nouvelle lecture de la régression floue. Dans cette 1ère partie, nous positionnons et nous analysons l'essence, l'interprétabilité, l'utilité et l'applicabilité de la régression à base d'intervalles (les approches possibilistes et au sens des Moindres carrés – MC) par rapport aux visions ontique et épistémique. Nous proposons par la suite une nouvelle révision de l'approche possibiliste selon une approche épistémique. Cette vision possibiliste est considérée comme la mieux adaptée pour les problèmes de régression dans un environnement expérimental imprécis.
Cet article propose une nouvelle relecture de la régression floue via la notions d'intervalles graduels. Cette régression graduelle est vue comme une extension de la régression imprécise intervalliste où une dimension incertaine est intégrée. En effet, les intervalles graduels sont capables d'améliorer la spécificité des intervalles conventionnels et d'appréhender les concepts de l'imprécision et de l'incertitude dans un formalisme unique et cohérent. La propagation des informations à travers les modèles régressifs est réalisée via un calcul d'intervalles graduels. La méthode proposée permet non seulement l'extension de la vision intervalliste au cas graduel mais aussi des interprétations intéressantes à travers les théories des mesures de confiance non-additives (les théories des possibilités et des fonctions de croyance), capables de mieux interpréter et appréhender la représentation de l'imprécision et de l'incertitude et leur manipulation.
Dans le domaine de la détection des valeurs aberrantes (outliers), la majorité des méthodes agissent directement sur les données observées, pour pouvoir décider le caractère aberrant d'une instance (individu). Dans ce travail, nous proposons une méthode qui effectue des fouilles dans les méta-données sous-jacentes aux données observées, qui dans notre cas, correspondent aux indices d'ambiguïtés associés à une table de décision. Ces indices “Indices d'ambiguïtés Originaux (IAO)”, décrivent l'incertitude d'une expertise humaine vis à vis d'un ensemble d'instances. On calcule à partir de ces indices une estimation des indices d'ambiguïtés pour les données de test, Indices d'Ambiguïtés Estimés (IAE). Les IAO seront utilisés dans un algorithme de clustering, après projection des IAE sur les clusters obtenus. Une coupe sur chaque cluster permettra de repérer des frontières de décision afin de déterminer si une instance est un outlier ou pas. Une expérimentation a montré de bons taux de détection, avec une sélection de paramètres pour contrôler les performances en terme de rappel et de fausse alarme.
Dans cet article, une étude sur la classification de matériaux à partir de leur composition chimique est réalisée. La méthode utilisée se base sur un arbre de décision flou et l'accent est mis sur la gestion de l'incertitude des données, qui fait l'objet d'un traitement particulier que nous exposerons. L'algorithme complet est testé sur des jeux de données simulés, dans l'attente de données réelles.
Dans cet article, nous donnons deux axiomatisations de la classe des uninormes discrètes idempotentes en tant qu'opérations binaires conservatives, où une opération est conservative si elle renvoie toujours la valeur prise par l'une de ses variables. Plus précisément, nous montrons d'abord que les uninormes discrètes idempotentes sont exactement les opérations qui sont conservatives, symétriques and non décroissantes. Ensuite, nous montrons que dans cette caractérisation la symétrie peut être remplacée par la bisymétrie et l'existence d'un élément neutre.
Les réseaux possibilistes sont des adaptations des réseaux bayésiens à la théorie des possibilités. Ils permettent une bonne modélisation des incertitudes et des imprécisions. Cependant, la définition des tables de possibilités conditionnelles est parfois difficile et complexe. Ainsi il peut devenir intéressant d'étudier des approches permettant de construire ces tables automatiquement. Les portes bruitées qui existent pour les réseaux bayésiens utilisent des connecteurs logiques et des paramètres pour générer les tables de probabilités conditionnelles. Ils permettent aussi de prendre en compte l'incomplétude des connaissances en proposant des paramètres de fuite qui représentent la connaissance inconnue. Cette approche est transposable à la théorie des possibilités et permet comme pour les réseaux bayésiens la construction des tables de possibilités conditionnelles à partir de la donnée d'un minimum de paramètres. Nous présentons dans cet article un exemple d'application des portes incertaines au calcul des indicateurs pédagogiques dans le domaine du e-learning.
Dans cet article, nous comparons différentes représentations des fonctions Booléennes à l'aide de systèmes de formes normales. Nous étendons les travaux de [3] sur l'étude asymptotique de l'efficacité des représentations produites par des systèmes de formes normales (Normal Form Systems–NFSs). Nous identifions certaines propriétés, comme l'associativité, la linéarité, la quasi-linéarité et la symétrie, qui nous permettent de comparer l'efficacité des NFSs correspondantes. Nous illustrons ces résultats en comparant des NFSs usuelles telles que la DNF, CNF, les représentations polynomiales, ainsi que la forme normale médiane (MNF) et celle dite de Sheffer (SNF). Nous obtenons en particulier que les NFSs générés par un seul connecteur sont polynomialement aussi efficace que ceux générés par plusieurs. La MNF, quand à elle, est aussi efficace que n'importe quel autre système.
Dans un marché fortement concurrentiel, les industriels doivent constamment améliorer leurs produits pour satisfaire leurs clients tout en restant compétitifs et en limitant la prise de risques. Or, en phase préliminaire de conception, la définition encore incomplète du produit rend la prévision de ses performances incertaine. C'est donc dans un contexte d'évaluation incertaine que les décideurs doivent faire les choix de conception les plus satisfaisants pour les clients. Plusieurs indices de plus-value ont été proposés dans la littérature dans le contexte de l'analyse multicritère pour estimer l'espérance de gain de satisfaction par rapport aux améliorations concurrentes envisageables. Ces modèles reposent cependant sur des hypothèses qui font abstraction de la faisabilité des améliorations espérées. Sur la base de techniques d'analyse de décision multicritère en environnement incertain, cet article propose une extension possibiliste du concept d'indice de plus-value.
Les intégrales de Sugeno permettent de décrire des familles d'opérateurs d'agrégation qualitativement. On sait que les intégrales de Sugeno peuvent être représentées par des ensembles de règles. Chaque règle utilise le même seuil dans les conditions et la conclusion. Cependant, en pratique on aimerait représenter des règles mettant en œuvre plusieurs seuils. Certaines règles à plusieurs seuils peuvent se représenter par des “fonctionnelles d'utilité de Sugeno” où la valeur des critères peut être modifiée à l'aide de fonctions d'utilité. Leur pouvoir de représentation reste assez restreint. Par contre, on suggère que l'usage de disjonctions ou de conjonctions de fonctionnelles d'utilité de Sugeno augmente de façon déterminante le pouvoir expressif et qu'on peut capturer ainsi toute fonction d'agrégation unaire par morceaux sur une échelle finie.
Ce papier présente une méthodologie systématique pour gérer les retards de transport variables en construisant un nouveau domaine discret où le retard de transport variable devient fixe (une différence d'instants). La transformation d'Euler est utilisée pour passer du domaine continu à ce domaine discret spécial qui dépend de la même variable que le retard de transport. Après cette transformation, le modèle devient non-linéaire et la représentation floue Takagi-Sugeno est obtenue pour inclure les non-linéarités dans le design. Pour souligner et illustrer l'efficacité de la méthodologie proposée, un contrôleur est synthétisé à base de LMI commander un convoyeur avec un retard de transport variable.
Face aux normes législatives et environnementales strictes, un intérêt particulier est porté aux conditions de fonctionnement des bioprocédés afin d'améliorer la performance dans les industries de production. Dans cette communication, on présente une régulation robuste avec retour de sortie pour un modèle multi-variables MISO d'un incinérateur à lit fluidisé circulant. Ainsi, on propose un algorithme de contrôle-commande TS-flou basé sur l'approche LMI afin de réduire la consommation de fioul et améliorer les performance de processus.
Cet article étudie le contrôle de la position assise chez les personnes vivant avec une lésion complète de la moelle épinière via une méthodologie issue de l'automatique. La méthode débute par une modélisation du contrôle de l'assise puis, une discrétisation du modèle descripteur non-linéaire afin d'obtenir un modèle flou de type Takagi-Sugeno. L'approche utilise l'observateur à entrées inconnues pour estimer l'état ainsi que l'entrée inconnue du système. Les conditions de stabilité sont exprimées sous la forme d'inégalités matricielles linéaires et résolues par des techniques d'optimisation convexe. Des simulations sont réalisées afin de montrer l'efficacité de l'observateur proposé.
Cette communication concerne le filtrage H1 des systèmes flous discrets de type Takagi-Sugano (TS) à retard, dans un domaine fréquentiel fini. Des conditions suffisantes sont développées pour garantir à la fois la convergence de l'erreur d'estimation et les performances H1 vis-à vis des perturbations extérieures supposées bornées en norme et appartenir à un domaine de fréquences finies. Dans le but réduire le conservatisme des conditions de synthèse, formulées en un problème d'optimisation sous contraintes d'inégalités matricielles linéaires (LMIs), des variables supplémentaires sont introduites en utilisant le lemme de Finsler. Un exemple de simulation est donné pour démontrer la validité et l'efficacité de l'approche proposée.
Ce papier traite le problème de la D-stabilisation des modèles Takagi-Sugeno (T-S) incertains dans le cadre non quadratique. En considérant le concept de la D-stabilité, des conditions sous forme d'Inégalités Matricielles Linéaires (LMI) sont proposées pour la synthèse de contrôleurs non-Compensations-Parallèles- Distribuées (non-PDC) via des Fonctions de Lyapunov Floues (FLF). Ces conditions permettent une Dstabilisation locale. Ainsi, une simple méthode est considérée pour l'estimation du Domaine d'Attraction (DA) de la dynamique en boucle fermée. Les résultats proposés sont illustrés au travers d'un exemple numérique.
Cette communication traite le problème de la synthèse de la commande par retour de sortie statique des systèmes flous incertains de type Takagi Sugeno (TS). En utilisant l'approche descripteur et la structure PDC (Parallel Distributed Compensation ), des conditions de synthèse d'une loi de commande stabilisante, sont proposées. Enfin, des simulations et des comparaisons sont données pour illustrer les résultats obtenus.
Cet article propose une comparaison expérimentale de l'arithmétique floue avec le calcul approximatif humain : une étude empirique a été menée afin de collecter des intervalles résultant d'additions et de produits avec des opérandes imprécis. Des intervalles flous sont élicités à partir de ces données et combinés par les règles d'arithmétique floue. Les résultats montrent que les additions et produits flous diffèrent de la fac¸on dont les êtres humains effectuent ces opérations. De plus, à un niveau cognitif, ils montrent que les participants ne tiennent pas compte des imprécisions dans les calculs, mais qu'ils effectuent les opérations exactes avant de calculer une approximation du résultat.
La comparaison de deux items (objets, images) peut s'exprimer en termes de différentes modalités telles que l'identité, la similarité, la différence, l'opposition, l'analogie. Récemment J.-Y. Béziau a proposé un “hexagone analogique” qui organise les liens entre ces modalités. La structure d'hexagone logique étend ici le carré logique des oppositions inventé du temps d'Aristote (en relation avec la théorie naissante des syllogismes). L'intérêt de ces notions a été mis en évidence depuis peu en logique et en intelligence artificielle. La comparaison de deux items met en jeu un ensemble d'attributs pertinents dont on compare les valeurs. Les comparaisons élémentaires peuvent être une question de degré, les attributs peuvent n'avoir pas tous la même importance. On pourrait aussi se contenter de considérer la plupart plutôt que la totalité des attributs, en utilisant des opérateurs du type OWmin et OWmax. L'article étudie dans quelle mesure une structure d'hexagone logique gradualisé peut être préservée pour ces extensions. On illustre les questions posées par l'extension floue d'un hexagone avec celui de l'inégalité et de l'égalité, proposé par R. Blanché.
Traditionnellement, pour comparer deux méthodes d'estimation, on utilise des données référencées, et on essaye de mesurer à quel point telle estimation est meilleure que telle autre via sa distance à la référence. Si on voulait comparer les performances d'une méthode précise à celle d'une méthode imprécise, il faudrait utiliser une extension de la distance qui ne soit ni biaisée (toujours en faveur d'un type de méthode), ni dépendante d'un paramètre. De plus une telle méthode devrait utiliser l'information additionnelle apportée par l'imprécision de l'estimation intervalliste. Un tel outil n'existant pas dans la littérature, nous proposons, sous le nom de concordance Pérolat, la construction d'une extension de la distance L1 ayant de grande chance de correspondre aux attentes énoncées ci-dessus.
Il existe dans la littérature différents critères permettant de légitimer d'un point de vue théorique le choix d'une transformation probabilité-possibilité parmi celles proposées. Toutefois ces transformations possèdent un coût calculatoire et des performances non prises en compte dans la majorité des applications. Ainsi, ce papier propose d'évaluer les transformations discrètes de probabilité-possibilité et leur capacités à proposer une modélisation fidèle de l'information au travers d'une application de détection de changements entre images. Dans cette application, l'information contenue dans l'image est modélisée à partir d'une distribution de possibilité obtenue par l'une des cinq transformations les plus connues dans la littérature appliquée à une distribution de probabilité modélisant les données. Le taux de bonne détection est calculé grâce à une mesure de dissemblance appliquée aux distributions de possibilité. Trois mesures de dissemblance sont utilisées dans cette application afin de garantir une conclusion plus générale quant aux performances des transformations probabilité-possibilité.