Les Rencontres Francophones sur la Logique Floue et ses Applications (LFA) constituent la manifestation scientifique annuelle où les chercheurs et industriels se réunissent afin de faire le point sur les développements récents des théories de l’imprécis et de l’incertain. Celles-ci comprennent par exemple les sous-ensembles flous, les possibilités, les fonctions de croyance, les probabilités imprécises, les ensembles approximatifs et aléatoires ou des logiques non classiques. Le large éventail de domaines couverts va de la commande floue, domaine historique de l'application des ensembles flous, à l'apprentissage automatique en passant par l'aide à la décision, le raisonnement, la fusion d'informations ou encore les bases de données, pour en citer quelques-uns.
Pour cette 27e édition, 33 articles, qui témoignent de cette diversité, à la fois des points de vue théorique et applicatif, ont été retenus. Ce programme est complété par 3 conférences invitées :
- la première donnée par Luc Jaulin, Professeur à l'Université de Bretagne Occidentale et Chercheur au laboratoire Lab- STICC ENSTA-Bretagne, sur la caractérisation d’une zone explorée par un robot sous-marin.
- la seconde donnée par le Docteur Matthias Troffaes, Chercheur au Department of Mathematical Sciences, Durham University, UK, sur une méthodologie de représentation et de quantification de l'incertitude, basée sur un concept comportemental appelé : la désirabilité.
- La troisième donnée par Véronique Cherfaoui, Professeure à l'Université de Technologie de Compiègne et Chercheuse au laboratoire Heudiasyc, sur une problématique de fusion multi-sources hétérogènes pour les véhicules intelligents.
CONFÉRENCES INVITÉES
– Caractérisation d’une zone explorée par un robot sous-marin (Luc Jaulin)
– A Behavioural Approach To Modelling Severe Uncertainty & An Application to Quantify Impact Of Renewable Energy Integration (Matthias C. M. Troffaes)
– Perception dynamique des véhicules autonomes : modélisation de l’incertitude dans des grilles d’occupation (Véronique Cherfaoui)
BASES DE DONNÉES ET REPRÉSENTATION DE L’INFORMATION
– Modèles possibilistes de bases de données relationnelles incertaines - Une vue d’ensemble (Olivier Pivert, Henri Prade)
– Génération efficace de résumés linguistiques estimés (Grégory Smits, Pierre Nerzic, Olivier Pivert, Marie-Jeanne Lesot)
– Représentation visuelle d’informations par des émoticônes colorées (Laurent Foulloy, Lamia Berrah, Vincent Clivillé)
– OSACA : Découverte d’attributs symboliques ordinaux (Christophe Marsala, Anne Laurent, Marie-Jeanne Lesot, Maria Rifqi, Arnaud Castelltort)
APPRENTISSAGE, CLUSTERING ET CLASSIFICATION
– K-nearest neighbors classifier under possibility framework (Sarra Saied, Zied Elouedi)
– K-NN crédibiliste pour la reconnaissance automatique des espèces d’arbres (Siwar Jendoubi, Didier Coquin, Reda Boukezzoula)
– Régularisation laplacienne pour le subspace clustering (Arthur Guillon, Marie-Jeanne Lesot, Christophe Marsala)
– Mesurer la dissimilarité au niveau d’une partition floue (Grégory Smits, Olivier Pivert, Toan Ngoc Duong)
– Analyse Discriminante Imprécise basée sur l’inference Bayésienne robuste (Yonatan-Carlos Carranza-Alarcon, Sébastien Destercke)
– Étalonnage évidentiel actif de classifieurs SVM (Sébastien Ramel, Frédéric Pichon, Francois Delmotte)
– Apprentissage partiellement supervisé dans les modèles de Markov cachés autoregressifs pour le monitoring et le pronostic de systèmes et structures mécaniques (Emmanuel Ramasso, Vincent Placet)
FONCTIONS DE CROYANCE
– Une famille de mesures de conflit entre fonctions de croyance (Nadia Ben Abdallah, Anne-Laure Jousselme, Frédéric Pichon)
– Capacités qualitatives séparables (Didier Dubois, Francis Faux , Henri Prade, Agnès Rico)
– Modélisation du profil des contributeurs dans les plateformes de crowdsourcing (Constance Thierry, Jean-Christophe Dubois, Yolande le Gall, Arnaud Martin)
– Détection des faux avis dans un cadre évidentiel (Malika Ben Khalifa, Zied Elouedi, Eric Lefèvre)
COMMANDE
– De l’implémentation des contrôleurs Takagi-Sugeno avancés : application au contrôle du papillon d’un moteur essence (Thomas Laurain, Jimmy Lauber, Reinaldo Palhares)
– Commande tolérante aux défauts actionneurs des systèmes flous descripteurs à retard (Dhouha Kharrat, Hamdi Gassara, Ahmed El Hajjaji, Mohamed Chaabane)
– Robust Fuzzy Predictive Control of DC-DC Buck-Boost Converter (Sofiane Bououden, Mohammed Chadli, Ilyes Boulkaibet)
– Une méthode de réduction du nombre de sommets pour les modèles Takagi-Sugeno : exemple dans le domaine mécanique (Thierry-Marie Guerra, Mathias Blandeau, Miguel Bernal)
– Synthèse H_/H1 d’un observateur PI pour la détection de défauts des systèmes T-S incertains (Salama Makni, Maha Bouattour, Ahmed El Hajjaji, Mohamed Chaabane)
– Synthèse LMI pour la commande d’un robot manipulateur à 2 ddl par l’approche descripteur TS (Thi Van Anh Nguyen, Anh Tu Nguyen, Laurent Vermeiren, Antoine Dequidt, Michel Dambrine, Cung Le)
– Contrôle H1des systèmes non linéaires de type TS dans un domaine fréquentiel fini (Doha El Hellani, Ahmed El Hajjaji, Jérôme Bosche)
REPRÉSENTATIONS POSSIBILISTES
– Approximations linéaires par morceaux de distributions de possibilités issues de transformations de loi de probabilité (Laurent Foulloy, Gilles Mauris)
– Les Jeux Hypergraphiques Ordinaux (Arij Azzabi, Nahla Ben Amor, Hélène Fargier, Régis Sabbadin)
– Jeux possibilistes à information incomplète (Nahla Ben Amor, Hélène Fargier, Régis Sabbadin, Meriem Trabelsi)
OUTILS D’EXTENSION INCERTAINE
– Extensions de la préférence statistique aux variables aléatoires floues (Farid Aiche)
– Opérateurs Min et Max pour intervalles graduels (Reda Boukezzoula, Sylvie Galichet, Laurent Foulloy)
– Extension signée de la domination des noyaux maxitifs (Olivier Strauss, Agnès Rico)
– Fuzzy one-way ANOVA using the signed distance method to approximate the fuzzy product (Rédina Berkachy, Laurent Donzé)
RAISONNEMENT ET DÉCISION DANS L’INCERTAIN
– Représentation de la c-révision à base de la logique des pénaliés (Safia Laaziz, Younes Zeboudj, Salem Benferhat, H.F. Khellaf)
– Commutation des intégrales de Sugeno (Didier Dubois, Hélène Fargier, Agnès Rico)
– Inférences prudentes dans des grilles d’occupation : planification de trajectoires de véhicules dans l’incertain (Sébastien Destercke, Véronique Cherfaoui, Mylène Masson, Hafida Mouhagir, Sarah Fakih)
– Identification de l’Information Pertinente pour la Prise de Décision : Application à la Logistique Humanitaire (Cécile L’Héritier, Abdelhak Imoussaten, Sébastien Harispe, Gilles Dusserre, Benoit Roig)
INDEX DES AUTEURS
Dans cette présentation, nous considérerons un robot sous marin (ici Daurade, DGATN, Brest) capable de voir (avec un sonar) à chaque instant une portion du fond de l'océan que nous allons supposer plat et uniforme.
In practical situations, decision makers often need to handle severe uncertainty. Such severe uncertainty can be caused by a variety of reasons, including lack of data, limited expert opinion, computational constraints on the model, and a lack of understanding of how to mathematically best represent certain aspects of the real system. First, I will discuss one particularly interesting way of representing and quantifying uncertainty, based on a behavioural concept called desirability, I will argue that this approach is more suitable for dealing with severe uncertainty than standard probability [1,3,4]. Next, I will explain how this approach can be related to possibility measures, belief functions, and robust Bayesian analysis [1]. Finally, I will present a practical application of this approach in renewable energy [2].
Nous proposons dans cet exposé de présenter nos travaux sur le domaine de la fusion multisources pour les véhicules intelligents. Ces travaux portent sur la modélisation, la propagation et la mise à jour des incertitudes avec le formalisme des fonctions de croyance. L'utilisation de sources de données hétérogènes (capteurs différents, capteurs intelligents, cartes numériques) nous a conduit à explorer différentes représentations de l'environnement (grille, primitives) et différentes stratégies de combinaison de l'information (fusion ou confirmation de pistes, caractérisation de l'espace navigable, etc.). Par ailleurs, l'utilisation de sources d'information distribuées et non synchronisées nous a amené à modéliser et étudier les imprécisions de datation sur les données et plus récemment à définir des opérateurs de fusion pour les applications réparties pouvant se déployer dans des réseaux de véhicules. Un focus sera fait sur la définition, la construction et l'utilisation de grilles évidentielles pour la navigation des véhicules autonomes.
Les approches dominantes pour modéliser l'incertitude dans les bases de données sont de nature probabiliste. Néanmoins, certains chercheurs persistent à proposer des représentations fondées sur la théorie des possibilités, motivés par la capacité de ce cadre à modéliser une incertitude de type épistémique, ainsi que par sa nature qualitative. Plusieurs modèles possibilistes ont été proposés au fil des années, pour répondre à différents besoins applicatifs allant de l'interrogation au design, en passant par le nettoyage de données. Ainsi, on peut distinguer quatre cadres différents, ordonnés ici selon leur expressivité : on trouve des bases de données avec i) des relations stratifiées ; ii) des valeurs d'attribut plus ou moins certaines ; iii) des valeurs d'attribut restreintes par des distributions de possibilité générales ; iv) des c-tables possibilistes. Dans chaque cas, nous discutons le rôle de la dualité possibilité-nécessité, les limitations et les points forts des modèles, ainsi que leur pertinence vis-à-vis des différentes tâches considérées.
Résumer des données est un problème qui a donné lieu à de nombreux travaux dans la communauté du soft computing. Il s'agit de générer des propositions décrivant linguistiquement les propriétés observées dans un jeu de données. Cet article s'intéresse à l'extraction efficace de tels résumés dans le cas où les données sont stockées dans une base de données relationnelle. Il propose une approche qui exploite les statistiques maintenues par le SGBD, et montre que des résumés fiables peuvent être estimés sans aucun accès aux données.
Cet article présente un principe de construction de tableaux de bord contenant des informations visuelles comme des émoticônes, des flèches ou autres symboles colorés. Cette représentation est construite par la composition d'une fuzzification linguistique et d'une défuzzification linguistique. Le passage par des sousensembles flous linguistiques fournit un moyen simple de construire des interpolations, linéaires par morceaux sous certaines hypothèses, dans l'espace des paramètres des informations visuelles.
Les bases de données dites hétérogènes contiennent des données décrites par des attributs à la fois symboliques et numériques. Cet article propose une méthode, appelée OSACA, pour identifier, parmi les attributs symboliques, les attributs ordinaux, en exploitant les informations fournies par les attributs numériques. Pour ce faire, OSACA procède en trois étapes : des motifs graduels sont d'abord extraits des attributs numériques. Des filtres morphologiques sont ensuite appliqués aux attributs symboliques pour déterminer des ordres sur les valeurs catégorielles à partir de l'ordre induit par les motifs graduels. Enfin, une mesure d'entropie d'ordre permet d'évaluer la pertinence des ordres candidats.
La classification est un domaine de recherche très important dans le domaine d'apprentissage automatique. L'une des techniques de classification les plus connues est l'algorithme de K-plus proche voisins (KPPV) connu par sa simplicité et son efficacité. Cette méthode est extrêmement intuitive, simple à implémenter et elle donne de bons résultats avec des données certaines. Cependant, l'un des problèmes majeurs qui se pose lorsqu'on utilise cette technique est que tous les voisins ont la même importance dans la décision de classe d'appartenance de l'objet en question, alors qu'il y a des voisins qui sont très loins de cet objet. Dans cet article, nous proposons une nouvelle approche basée sur la technique KPPV dans un cadre de possibilités. Cette méthode permet de gérer l'incertitude dans les étiquettes de classe où chaque objet à classer sera affecté à plusieurs classes avec des degrés de possibilités. Des expérimentations basées sur plusieurs ensembles de données réels ont été menées pour montrer l'efficacité de la méthode proposée par rapport aux autres méthodes.
La reconnaissance des espèces d'arbres est un problème d'identification des espèces d'arbres à partir des photos de feuilles et d'écorces. Dans cet article, nous proposons une règle de combinaison pour les kplus proches voisins crédibilistes (Ek-NN). Cette règle est adaptée aux problèmes de classification pour lequel nous avons un grand nombre de classes avec une variabilité intra-classe et une similarité entre classes importantes. Enfin, nous comparons la performance de la solution proposée aux solutions existantes.
Le paradigme de subspace clustering flou standard peut conduire à des discontinuités dans les solutions calculées : des points voisins peuvent être affectés à des clusters différents, ce qui peut conduire à une mauvaise estimation des sous-espaces. Pour contrer ce phénomène, cet article propose d'ajouter à la fonction de coût un terme de régularisation, inspiré du clustering spectral, pour combiner une similarité globale à la similarité locale à chaque cluster. Un nouvel algorithme basé sur l'optimisation alternée, appelé Weighted Laplacian Fuzzy Clustering, WLFC, en est dérivé et étudié expérimentalement.
Les approches de soft computing utilisent souvent un vocabulaire utilisateur pour réécrire linguistiquement des données numériques et catégorielles. Les techniques classiques d'extraction de connaissance (par exemple, de découverte de règles d'association ou de clustering), quant à elles, permettent d'aider l'utilisateur à comprendre la structure interne des données. Pour appliquer ces techniques à des données réécrites linguistiquement, il faut d'abord définir une mesure de distance adaptée, car la plupart des méthodes en question reposent sur l'usage d'une métrique, dont les propriétés ont un impact important sur la pertinence des connaissances extraites. Dans cet article, nous proposons une mesure qui calcule la dissimilarité entre deux objets réécrits selon un vocabulaire utilisateur.
L'objectif de cet article est de proposer une nouvelle approche de classification prudente basée sur l'inférence Bayésienne robuste et l'analyse discriminante linéaire. Cette modélisation est conçue pour prendre en compte, dans ses inférences a posteriori, le manque d'information lié aux données. Le principe de cette approche est d'utiliser un ensemble de distributions a priori pour modéliser l'ignorance initiale, plutôt qu'une seule distribution (souvent dite “non-informative”) qui peut fortement influencer les résultats en cas de faible quantité de données. Des premières expériences montrent que l'ajout d'imprécision permet d'être prudent en cas de doute sans pour autant diminuer la qualité du modèle, tout en gardant un temps de calcul raisonnable.
Les méthodes évidentielles d' étalonnage de classifieurs binaires apportent une amélioration par rapport aux méthodes probabilistes, en représentant explicitement l'incertitude d'étalonnage induite par la quantité de données (étiquetées) d'apprentissage. Cette incertitude justifiée mais indésirable peut être réduite en ajoutant des données d'apprentissage, qui sont généralement coûteuses. D'où la nécessité de stratégies qui, étant donné un réservoir de données non étiquetées, sélectionneront des données intéressantes à étiqueter, c'est-à-dire celles induisant une baisse d'incertitude supérieure à la sélection aléatoire. Deux stratégies de ce type, inspirées de l'échantillonnage par incertitude en apprentissage actif, sont considérées dans cet article et appliquées à un ensemble de classifieurs SVM sur des jeux de données de classification binaire classiques. Les résultats expérimentaux montrent l'intérêt de l'approche vis-à-vis de la réduction de l'incertitude d'étalonnage, mais aussi vis-à-vis de l'amélioration des performances de classification.
Une modification des mécanismes d'inférence et d'apprentissage dans les modèles de Markov cachés autorégressifs est proposée pour prendre en compte des connaissances a priori. Ces modèles sont particulièrement intéressants pour représenter statistiquement des séries temporelles. Le fait de pouvoir ajouter des connaissances a priori permet de l'utiliser dans de nombreuses applications. Deux applications sont présentées : une première sur le pronostic avec l'estimation du temps restant avant défaillance de turboréacteurs ; et une seconde sur l'analyse d'ondes élastiques transitoires hautes fréquences rencontrées dans les structures mécaniques.
Nous proposons dans ce papier une famille paramétrée de mesures de conflit dérivée d'une définition de cohérence de fonction de croyance proposée récemment. La famille proposée satisfait un ensemble de propriétés jugées désirables dans la littérature et est de plus monotone. Nous montrons que deux mesures connues du conflit correspondent à des cas particuliers de cette famille et coïncident avec sa borne inférieure et sa limite asymptotique supérieure. Nous établissons également un lien entre les ensembles incohérents minimaux et la cohérence d'une fonction de croyance. La définiton des nouvelles mesures est motivée sur un exemple d'estimation multi-source de destination de bateaux.
Le but de cet article est de définir la contrepartie qualitative des fonctions de croyance séparables (issues de la fusion de témoignages élémentaires non fiables) pour des capacités à valeurs sur un ensemble fini totalement ordonné. Dans le cadre qualitatif, une distribution de possibilité définie sur l'ensemble des parties du cadre de discernement remplace la fonction de masse. Il s'avère que toute capacité peut être induite par la contrepartie qualitative de la définition d'une fonction de croyance. Nous considérons ensuite une contrepartie de la règle de combinaison de Dempster appliquée aux capacités qualitatives. Nous étudions la classe des capacités séparables, qui peut être générée en appliquant cette combinaison à des capacités à support simple. On la compare avec la décomposition des capacités comme un maximum de fonctions de nécessité. Nous montrons enfin la pertinence de ce formalisme pour le problème de la fusion d 'informations issues de sources non fiables.
Le crowdsourcing consiste à l'externalisation de tâches à une foule de contributeurs rémunérés pour les effectuer. La foule, généralement très diversifiée, peut inclure des contributeurs non-qualifiés pour la tâche et/ou non-sérieux. Nous présentons ici une nouvelle méthode de modélisation de l'expertise du contributeur dans les plateformes de crowdsourcing se fondant sur la théorie des fonctions de croyance afin d'identifier les contributeurs sérieux et qualifiés.
De nos jours, les opinions partagées sur les sites web sont devenues l'une des principales sources d'information lors de la prise de décision pour les acheteurs (qu'ils soient des particuliers ou des entreprises). Malheureusement, l'importance de la publicité et l'attrait du profit ont provoqué l'apparition de fausses opinions afin de troubler les consommateurs. Puisque les avis donnés sont généralement imprécis et incertains, il est assez difficile de distinguer les faux avis des vrais. Dans cet article, nous proposons une nouvelle méthode de détection de faux avis, capable de traiter l'incertitude en se fondant sur la théorie des fonctions de croyance. Cette approche permet de prendre en compte la compatibilité entre l'avis donné et tous les autres. Nous proposons de valider le comportement de notre méthode à travers des exemples numériques et de l'évaluer à travers des bases artificielles. Ces expérimentations prouvent que cette méthode, prenant en compte l'incertitude, constitue une première démarche intéressante pour la détection de fausses opinions.
Ce papier est dédié à l'implémentation de contrôleurs avancés type Takagi-Sugeno. L'application considérée est le contrôle du papillon d'un moteur thermique essence fonctionnant à régime ralenti. Afin de synthétiser un contrôle basé sur modèle, un modèle est d'abord obtenu et identifié avec un banc d'essai moteur. Dans la mesure où il implique des non-linéarités, une représentation Takagi-Sugeno est exprimée. A cause de la complexité du modèle, un simple contrôleur TS ne peut pas être obtenu après avoir appliqué la méthodologie de Lyapunov. Un contrôleur TS avancé est donc considéré. Des conditions LMI sont obtenues à travers la méthode directe de Lyapunov. Cependant, l'inversion matricielle temps-réelle présente dans la structure non-PDC rend l'implémentation difficile voire impossible. Un contrôleur alternatif est alors synthétisé pour avoir des performances similaires sans l'inversion matricielle. Puis le contrôleur est implémenté dans l'ECU industrielle du banc moteur. Des résultats expérimentaux illustrent l'efficacité du contrôleur Takagi-Sugeno avancé proposé.
Cette communication concerne la commande tolérante aux défauts (FTC) des systèmes algébro-différentiels décrits par des modèles Takagi-Sugeno (T-S) descripteurs à retard en présence des défauts actionneurs et des perturbations extérieures. En utilisant un observateur avec un estimateur à mémoire de défauts, une FTC aux défauts actionneurs est développée pour assurer la stabilité du système en boucle fermée non seulement dans le cas nominal mais également en présence de défauts actionneurs. Les conditions de synthèse dépendantes de la longueur du retard, à la fois de l'observateur et du contrôleur tolérant aux défauts sont données sous forme des LMIs qu'on peut résoudre en une seule étape. Un exemple est finalement présenté afin d'illustrer l'efficacité des résultats obtenus.
This study investigates the problem of model predictive control (MPC) for the voltage tracking control of a DC-DC Buck-Boost converter. The system is represented into a Takagi-Sugeno (T-S) discrete fuzzy model. Based on the Lyapunov functions theory, some required sufficient conditions are established in terms of linear-matrix inequalities (LMIs), which can be easily solved by an efficient convex optimization algorithm. The provided conditions are obtained through a fuzzy Lyapunov function candidate and a non-PDC control law, to maintain a robust performance against load variation of a buck-boost DC-DC power converter system. The results obtained are compared with the ones achieved with Fuzzy model predictive control (MPC) in terms of robustness to disturbances.
Ce travail traite du passage de modèles non linéaires à des modèles quasi-LPV ou dits de Takagi- Sugeno par la méthode des secteurs non-linéaires. Cette technique permet une représentation exacte mais le modèle polytopique obtenu comporte un nombre de sommets égal à 2 à la puissance du nombre de nonlinéarités du modèle. Cette croissance exponentielle se répercute sur le nombre de conditions qui permettent de résoudre un problème, soit de commande, soit d'observation. Ces conditions sont écrites sous forme d'inégalités linéaires matricielles (LMI) et les limites de résolution des solveurs actuels peuvent être rapidement atteintes. Réduire le nombre de sommets en conservant des modèles T-S proches du modèle NL est donc une voie intéressante. Une technique de réduction de modèle basée sur les similarités des développements limités de Taylor est proposée. Un exemple d'application souligne l'intérêt d'une telle technique lors de l'application de la méthodologie TS aux systèmes mécaniques.
Dans ce papier, nous nous intéressons à la synthèse d'un observateur proportionnel intégral (PI) pour estimer les états et les défauts capteurs et actionneurs des systèmes non linéaires incertains représentés par des modèles flous de type Takagi-Sugeno (T-S) en prenant en compte la sensibilité des résidus aux défauts et l'effet de la perturbation extérieure. Pour ce faire, des conditions de synthèse formulées en un problème d'optimisation H_/H(infini) sous contraintes LMIs, sont proposées. En outre, nous utiliserons l'approche descripteur pour avoir des LMI moins restrictives. Finalement nous présenterons des résultats de simulation pour illustrer la méthode proposée.
Cet article présente la synthèse d'une loi de commande en mouvement d'un robot parallèle plan `a 2 degrés de liberté. Basée sur l'approche Takagi-Sugeno (TS) sous forme descripteur, une loi de commande PDC (Parallel Distributed Compensation) avec modèle de référence est utilisée pour garantir des performances de poursuite de trajectoire et de précision. En utilisant des inégalités linéaires matricielles (LMI), le critère de performance H1 et une fonction de Lyapunov, des conditions de stabilisation sont données. Des résultats obtenus en simulation avec l'environnement MATLAB/SimMechanics illustrent l'efficacité de l'approache proposée.
Cette communication concerne la commande PDC (Parallel Distributed Compensator) des systèmes flous de type TS soumis à des perturbations extérieures supposées appartenir à un domaine fréquentiel limité. Nous proposons des conditions suffisantes garantissant la stabilité du système en boucle fermée et les performances H(infini) vis-à-vis des perturbations extérieures supposées bornées en norme dans les domaines de fréquences pré-définies. La méthode proposée est basée sur la stabilité de Lypaunov et le lemme généralisé de Kalman Yakubovich Popov. Le lemme de Finsler est utilisé pour relacher davantage les conditions de synthèse du contrˆoleur, formulées finalement en un problème d'optimisation sous contraintes d'inégalités matricielles linéaires (LMIs). Un exemple de simulation est donné pour démontrer la validité et l'efficacit é de l'approche proposée.
Cet article aborde l'approximation linéaire par morceaux de distributions de possibilité construites à partir de transformations de distributions de probabilité. Pour le cas des lois symétriques nous considérons la transformation optimale, i.e. la transformation satisfaisant la condition de consistance et le minimum de spécificité. Pour les lois non symétriques, nous considérons en plus une deuxième transformation basée sur une normalisation à droite et à gauche du mode de la fonction de répartition. Les propositions sont illustrées sur des lois usuelles de probabilité.
Les jeux hypergraphiques sont un modèle capable de représenter d'une manière compacte un jeu noncoop ératif normal avec de nombreux agents, chacun pouvant apparaˆıtre dans plusieurs jeux locaux avec ses voisins. Cet article présente la première définition des jeux hypergraphiques ordinaux (O-HG). Cette définition est intégrée dans le cadre des jeux ordinaux et par analogie avec les jeux hypergraphiques classiques. Nous étudions d'abord la notion d'équilibre de Nash pur dans un O-HG et montrons que, pareillement à un jeu graphique, décider de l'existence d'un équilibre de Nash pur est un problème NP-complet. Ensuite, nous nous concentrons sur le problème de trouver un équilibre possibiliste mixte étant donné un O-HG. Pour ce faire, nous proposons un algorithme polynomial en temps, adapté de l'algorithme proposé pour les jeux ordinaux en forme normale. Cet algorithme est illustré sur un exemple agronomique.
Les jeux Bayesiens (ou jeux à information incomplète) offrent un cadre adapté au traitement de jeux à utilités cardinales sous incertitude. Ce type d'approche ne peut pas être utilisé dans des jeux ordinaux, o`u l'utilité capture un ordre de préférence, ni dans des situations de décision sous incertitude qualitative. Dans cet article, nous proposons un modèle de jeux à information incomplète basé sur la théorie de l'utilité qualitative possibiliste : les jeux possibilistes (-games). Nous étudions deux notions fondamentales de la théorie des jeux - les notions d'équilibre de Nash et de stratégie de sécurité - et montrons que tout jeu possibiliste peut être transformé en un jeu classique équivalent en termes d'équilibre de Nash pur.
Les extensions de la préférence statistique aux variables aléatoires floues sont proposées comme suit: en consid érant les intervalles flous comme des distributions de possibilités et comme des intervalles de nombres graduels d'une part, et d'autre part, par défuzzification, en utilisant les coupes de niveau des variables aléatoires floues. Ensuite, les liens entre ces différentes façons de procéder sont établis.
Cet article présente, pour des intervalles graduels, une formulation nouvelle et plus générale des opérations min et max initialement proposée dans [1] pour le cas particulier des intervalles flous triangulaires. L'originalité de l'approche réside en l'extension au cas graduel des relations inter-intervalles selon une représentation « Midpoint-Radius ».
Les noyaux de convolutions sont des outils indispensables en traitement du signal. Ils permettent de modéliser le comportement d'un capteur, de définir les propriétés d'un filtre, de transformer une opération continue en opération discrète, etc. Une des difficultés est cependant d'identifier quel noyau utiliser pour quelle application. Dans des articles précédents, nous nous sommes appuyés sur une analogie simple entre noyaux de convolution positifs et distributions de probabilités pour définir la notion de noyau maxitif. Un noyau maxitif permet de représenter un ensemble convexe de noyaux de convolutions positifs, c'est à dire une information imprécise sur le noyau à utiliser. Cependant, dans de nombreuses applications, comme par exemple le filtrage, on peut être amené à utiliser des noyaux de convolutions signés. Nous proposons, dans cet article, d'étendre la notion de domination des noyaux maxitifs aux noyaux de convolution signés, ce qui va nous mener dans la contrée controversée des fonctions d'ensembles signées donc non-monotones.
Nous présentons une approche d'ANOVA simple étendue à l'environnement flou. Sachant que le calcul d'un produit flou s'avère compliqué, une approximation de ce produit est requise. Notre contribution est d'approximer la différence entre deux nombres flous par une méthode intitulée méthode de la ”signed distance”. Le but est alors de réduire la complexité du calcul du produit. De plus, nous avons trouvé que dans des conditions particulières, notre approche retourne la même décision émise par l'approche classique. De ce fait, l'approche classique est à nos yeux vue comme un cas particulier de l'approche défendue où l'on considère des nombres ”crisp” qui sont bien évidemment des nombres flous particuliers. Nous clôturons ce papier par deux exemples numériques détaillés suivis d'une comparaison de la décision émise par l'approche floue avec celle émise dans le cas classique.
La révision des croyances consiste à modifier un état épistémique après l'arrivée de nouvelles informations. Dans cet article, nous nous concentrons sur le problème de la révision itérative multiple des croyances appelée la c-révision. Les états épistémiques sont représentés dans le cadre des fonctions ordinales conditionnelles. La nouvelle information de la c-révision est representée par un ensemble consistant de formules pondérées. Nous montrons que la c-révision a un lien très naturel avec la logique des pénalités.
Dans les problèmes d'agrégation bidimensionnels, on dit que les deux opérations d'agrégation commutent si le résultat final ne dépend pas de l'ordre dans lequel on les a appliquées. Les maximums pondérés commutent entre eux tout comme les minimums pondérés, mais un maximum pondéré ne commute pas avec un minimum pondéré. Cet article présente des résultats qui résolvent complètement le problème de la commutation des intégrales de Sugeno.
La planification de trajectoires pour les véhicules autonomes se base généralement sur une représentation simplifiée de l'environnement comme les grilles d'occupation 2D. Ces grilles sont construites à partir de mesures de capteurs entâchées de beaucoup d'incertitudes (phénomènes d'occulation, éloignement par rapport au capteur, etc). Cela signifie que l'information d'occupation peut être très incertaine et imprécise à certains endroits de la grille, comme très précise et fiable à d'autres endroits. Modeliser de manière fine cette information est donc essentiel pour décider de l'action optimale à choisir pour le véhicule. Cependant une modélisation fine implique le plus souvent un coût calculatoire élevé. Dans cet article, nous proposons un modèle de décision capable de représenter fidèlement les informations disponibles tout en fournissant des inférences efficaces de complexité fixe.
Un intérêt grandissant est exprimé par les organisations pour les approches permettant de tirer parti de leurs expériences passées, et ce en vue de supporter les processus de décision et de garantir leur efficience. Dans ce contexte, le développement d'approches semi-automatisées visant à identifier des recommandations pertinentes et à réaliser des analyses prescriptives efficientes est crucial. Nous proposons une approche, dans un cadre d'Analyse Multicritère, visant à distinguer les critères ayant, au regard de l'évaluation d'un ensemble d'expériences similaires, une influence majeure dans les processus de décision. L'identification de la contribution des critères à cette évaluation est ici basée spécifiquement sur la méthode de surclassement Electre tri dont les paramètres sont déterminés via une procédure de désagrégation. Cette méthode présente, en effet, des propriétés pertinentes et adaptées aux spécificités de notre contexte applicatif : la réponse d'une organisation humanitaire à une situation d'urgence, qui illustre ici l'approche proposée.