LES CONFÉRENCES LFA offrent, chaque année, un lieu privilégié d'échanges où universitaires et industriels francophones exposent leurs travaux les plus récents sur les thématiques autour de la théorie des ensembles flous. Au fil du temps, ces rencontres se sont ouvertes à d'autres théories de l'incertain telles que la théorie de Demspter-Shafer ou des probabilités imprécises. L'éventail des domaines couverts s'est également élargi et va des applications de la théorie des ensembles flous, comme par exemple le domaine des bases de données, à des travaux théoriques comme par exemple les mesures et intégrales floues, en passant par l'apprentissage automatique, la fusion d'informations, l'aide à la décision et le raisonnement approximatif.
Les vingt-neuf articles retenus pour l'édition 2012 de LFA témoignent de cette diversité, tant d'un point de vue théorique que d'un point de vue applicatif, et confirment une grande vitalité scientifique et applicative.
Ces communications ont été enrichies par deux conférences invitées :
l'une donnée par Ines Couso Blanco, professeur à l'Universidad de Oviedo dans le Département de Statistiques, sur les variables aléatoires floues
Et
-l'autre par Anne Laurent, professeur à l'Université de Montpellier 2, membre de l'équipe TaToo du LIRMM, sur la fouille de données floues.
Table des matières
CONFÉRENCES INVITÉES
– Tout ce que vous avez toujours voulu savoir sur les variables aléatoires flous (sans jamais oser le demander)
Inés Couso
– Fouille de données floue et motifs
Anne Laurent
INTÉGRALES ET MESURES
– Échelles floues en métrologie
Eric Benoit
– Intégrales et désintégrales qualitatives
Didier Dubois, Henri Prade, Agnès Rico
– Quasi-extensions de Lovâsz et leur version symétrique
Miguel Couceiro, Jean-Luc Marichal
INFÉRENCES FLOUES
– Séquence robuste d’optimisation paramétrique d’un système d’inférence floue
Serge Guillaume, Brigitte Charnomordic
– Commande prédictive floue du microclimat d’une serre agricole
Mouna Boughamsa, Messaoud Ramdani
FUSION D’INFORMATIONS
– Fusion distribuée évidentielle pour la détection d’attaques sybil dans un réseau de véhicules
Nicole El Zoghby, Véronique Cherfaoui, Bertrand Ducourthial, Thierry Denoeux
– Un processus V2V d’échanges et de gestion d’informations imparfaites basé sur des fonctions de croyance
Mira Bou Farah, David Mercier, Eric Lefèvre, François Delmotte
– Méthodologie de combinaison d’informations statistiques et d’avis d’experts dans le cadre de la théorie de Dempster et Shafer : Application au dimensionnement des ouvrages côtiers
Nadia Ben Abdallah, Nassima Mouhous Voyneau, Thierry Denoeux
– Étude préliminaire de l’application de la fusion d’informations pour le diagnostic de défauts de bobinages de machines à courant alternatif
David Mercier, Eric Lefevre, Rémus Pusca, Cristian Demian, Raphael Romary
BASES DE DONNÉES
– Détection efficace de conflits dans les requêtes floues
Olivier Pivert, Grégory Smits
– Contraintes floues et Réconciliation de Données
Didier Dubois, Hélène Fargier, Dominique Guyonnet
– Un Opérateur Skyline Flexible pour l’Interrogation de Bases de Données : Premières explorations
Katia Abbaci, Allel Hadjali, Ludovic Lietard, Daniel Rocacher
– Recherche de profils de candidats à risque par calcul de regroupement flou relationnel
Matthieu Puyo, Nadine Matton, Stéphane Vautier, Didier Dubois, Henri Prade
THÉORIE DES POSSIBILITÉS
– La négation d’un réseau possibiliste basé sur le minimum Salem Benferhat, Faiza Khellaf, Ismahane Zeddigha
– Transformation probabilité-possibilité de la somme de deux variables aléatoires unimodales symétriques indépendantes ou comonotones Gilles Mauris
ARGUMENTATION ABSTRAITE ET CONCEPTS FORMELS
– Argumentation abstraite et concepts formels
Leila Amgoud, Henri Prade
GESTION DE PRÉFÉRENCES
– Une extension de la préférence statistique aux variables aléatoires floues
Farid Aiche, Didier Dubois
– Modélisation du confort par une utilité agrégée pour l’optimisation de la consommation énergétique dans les bâtiments
Afef Denguir, François Trousset, Jacky Montmain
– Vers un système de recommandation basé sur une agrégation des préférences floues
Samia Boulkrinat, Allel Hadjali, Aicha Mokhtari
DÉTECTION ET CLASSIFICATION
– La méthode RAkEL évidentielle pour la classification multi-label
Sawsan Kanj, Fahed Abdallah, Thierry Denoeux
– Détection robuste de mouvement par histogrammes quasi-continus
Olivier Strauss, Désiré Dro Sidibe, William Puech
– Classification crédale multi-cibles
S. Hachour, F. Delmotte, E. Lefèvre, D. Mercier, J. Klein, J.M. Vannobel
FOUILLE DE DONNÉES ET GRADUALITÉ
– Consommation mémoire et puissance de calcul en fouille de motifs graduels basée sur les ordres flous multi-précisions
Malaquias Quintero Flores, Federico Del Razo, Nicolas Sicard, Anne Laurent
– Gestion de la contradiction dans l’extraction de motifs graduels
Amal Oudni, Marie-Jeanne Lesot, Maria Rifqi
– Régression floue pour l’approximation d’intervalles graduels
Reda Boukezzoula, Moheb Elmasry, Sylvie Galichet, Laurent Foulloy
FONCTIONS DE CROYANCE
– Arbres de classification construits à partir de fonctions de croyance
Nicolas Sutton-Charani, Sébastien Destercke, Thierry Denoeux
– Conflit et Indices de Dissimilarité dans la TFC
Mehena Loudahi, John Klein, Jean-Marc Vannobel, Olivier Colot
– Principe d’inclusion-exclusion pour fonctions de croyance : application à la fiabilité
Felipe Aguirre, Sebastien Destercke, Mohamed Sallak, Walter Schon
INDEX DES AUTEURS
Depuis l'introduction de la notion de variable aléatoire floue dans les années 70 par Féron, de nombreux travaux ont proposé différentes extensions des notions probabilistes et statistiques usuelles au cadre des variables aléatoires floues. Nous présentons ici le concept de variable aléatoire floue en mettant l'accent sur l'aspect sémantique plutôt que sur l'aspect formel. Nous rappelons d'abord les différentes interprétations d'un ensemble flou proposées dans la littérature, qui serviront ensuite de base pour comprendre les différentes applications possibles des variables aléatoires floues. Nous introduisons ensuite le concept de variable aléatoire floue, en commençant par le cas particulier et mieux connu des ensembles aléatoires. Les ensembles aléatoires et les variables aléatoires floues peuvent représenter soit un phénomène aléatoire où les observations sont des ensembles (flous), soit le résultat d'une expérience classique dont le résultat est observé de manière imprécise. Selon le cas, le traitement des ensembles flous aléatoires sera différent. Les notions probabilistes basiques (espérance, variance, indépendance stochastique, etc.) et les techniques d'inférence statistique (tests d'hypothèse, classification, etc.) se généralisent de manières différentes selon l'interprétation adoptée. Since the notion of fuzzy random variable was introduced by Féron in the 70s, many works have been published extending various notions and results of Probability Theory, as well as different techniques in Statistical Inference. This talk presents the concept of fuzzy random variable, with more emphasis on the semantics than on the formal mathematical aspects. We begin by recalling the different interpretations of fuzzy sets in the literature, as a basis for understanding the various fields of application of fuzzy random variable. Next we will introduce the concept of fuzzy random variable, starting with the particular and better known case of random set. Random sets and fuzzy random variables can represent either random phenomena where the outputs are (fuzzy) sets or ill-perceptions of random experiments with numerical outputs. Depending on the interpretation and application of the fuzzy random variable, the treatment is different. The basic concepts in probability (the notions of expectation, variance, stochastic independence, etc.) and techniques of statistical inference (hypothesis testing, classification, etc.) are extended in different ways depending on the specific interpretation of the data.
La fouille de données connaît un essor très important. La définition même de ce terme n'est pas aisée, tant elle a connu ces dernières années, et aujourd'hui encore, des acceptions diverses au sein des communautés. Embrassant maintenant un ensemble très large de méthodes et d'approches, le terme est pourtant issu d'une communauté assez resserrée, jeune et atypique dans le monde de l'analyse des données au sens large. Apparu dans les années 1990 dans la communauté des bases de données, le terme Data Mining (Fouille de données en franais) a rapidement alimenté de nombreuses publications. Initialement lié à des applications commerciales et des éditeurs de logiciels de bases de données, le terme a d'abord été opposé au machine learning et aux méthodes d'apprentissage statistique et d'intelligence artificielle. Visant à extraire des motifs dans des données très volumineuses, les méthodes mises en oeuvre ont évolué avec le souci d'optimiser leur performance en temps de calcul et en mémoire. Les algorithmes étaient alors conçus pour parcourir efficacement de grands espaces de recherche et découvrir de manière exhaustive les motifs émergeant des bases de données. Assez rapidement, l'imperfection des données a été un frein pour les applications réelles : imprécisions, incertitudes et autres données manquantes ont empêché les méthodes d'obtenir des résultats pertinents. Pour autant, la communauté a longtemps refusé les apports des chercheurs en logique floue qui ont même parfois dû déguiser les mots clés de leurs travaux pour publier dans les principales conférences de bases de données leurs méthodes issues de la communauté floue. Plus récemment, le rapprochement des communautés d'intelligence artificielle et de bases de données a contribué largement à l'essor des recherches en fouille de données floue. Dans cet exposé, nous nous focalisons sur l'extraction de motifs flous, non pour en détailler tous les travaux associés, mais plutôt pour dresser un panorama des liens entre communautés et des nombreuses fertilisations croisées. Nous verrons en particulier comment les motifs graduels bénéficient aujourd'hui de cet enrichissement mutuel. Data mining is a popular research topic whose definition is not easy as many fields contribute to it. Initially born from the specific area of commercial decisional applications and databases in the nineties, the field has first been opposed to the machine learning and artificial intelligence fields. Aiming at extracting patterns from huge volumes of data, methods and algorithms have been developed with the goal of optimising time- and memory-consumption by proposing several methods for navigating through the large and combinatory search space to retrieve all the frequent patterns. These methods have rapidly suffered from being non relevant and efficient when facing imperfect real data. However, fuzzy logic has not been accepted as a solution for a very long time among the data mining community. More recently, researchers have become closer and fuzzy pattern mining has benefited from the very various approaches of these many fields. In this presentation, we are focusing on fuzzy pattern mining and are showing how cross fertilisation over the research communities allow relevant and promising contributions. In particular, we focus on fuzzy gradual patterns to show this mutual enrichment.
La théorie représentationnelle de la mesure ou théorie du mesurage étend aux grandeurs qualifiables le mécanisme de mesure usuellement réservé aux grandeurs quantifiables. Dans le prolongement des échelles introduites avec cette théorie, nous proposons une famille d'échelles appelées échelles floues, et propageant une relation de similarité de l'ensemble des manifestations d'une grandeur vers son espace de représentation. Cet article propose une définition générale des échelles floues, et présente les échelles nominales floues et les échelles métricales floues. The representational theory of measurement, also called measurement theory, extends to qualitative quantities the measurement process usually devoted to quantitative quantities. Within the family of scales introduced by this theory, we introduce a new sub-family of scale called fuzzy scales. Given a quantity, these new scales link a similarity relation from the set of manifestation to the associated representation space. This paper proposes a general definition for fuzzy scales, and present the fuzzy nominal scales and the fuzzy metrical scales.
Cet article présente des variantes de l'intégrale de Sugeno dans un cadre qualitatif fini. On introduit tout d'abord trois façons d'interpréter les poids d'importance associés aux groupes de critères, sur une algèbre de Heyting. On introduit ensuite l'idée de « désintégrale », duale de celle d'intégrale. Lors de l'évaluation d'un objet, une désintégrale est maximale si aucun défaut éventuel n'est présent de manière notable, tandis qu'une intégrale est maximale si tous les avantages éventuels sont suffisamment présents. Cette idée conduit à une représentation bipolaire des préférences, au moyen d'une paire constituée par une intégrale et une désintégrale. This paper proposes variants of the Sugeno integral in a finite qualitative setting. First, three ways of understanding importance weights attached to groups of criteria are proposed. Moreover, we introduce the idea of (qualitative) “desintegrals”, a dual of integrals, in a finite setting. When evaluating an item, desintegrals are maximal if no defects at all are present in a significant way, while integrals are maximal if all positive aspects are sufficiently present. This idea leads to a bipolar representation of preferences, by means of a pair made of an integral and a desintegral.
Nous présentons une étude de la classe des quasiextensions de Lovász (c'est-à-dire des fonctions obtenues en composant une extension de Lovász avec une function non décroissante qui s'annule à l'origine) et de celle de leur version symétrique. Ces fonctions apparaissent naturellement dans le cadre de l'aide à la décision dans l'incertain car elles contiennent les fonctionnelles de préférence globales associées respectivement à des intégrales de Choquet discrètes et à des intégrales de Choquet discrètes symétriques dont les variables sont transformées par une fonction d'utilité donnée. We present a study of the class of quasi-Lovász extensions (i.e. functions which are a composition of a Lovász extension with a nondecreasing function vanishing at the origin) as well as that of their symmetric variants. These functions appear naturally within the scope of decision making under uncertainty since they subsume overall preference functionals associated with discrete Choquet integrals and symmetric discrete Choquet integrals, respectively, whose variables are transformed by a given utility function.
Ce travail présente une séquence robuste d'optimisation des paramètres d'un système d'inférence floue. Chacune des étapes permet d'optimiser un ensemble de paramètres interdépendants, suivant des critères de performance numérique mais aussi de couverture. La structure du système n'est pas modifiée par la procédure et des contraintes sont imposées pour garantir son interpr étabilité. Dix couples apprentissage-test sont générés pour chaque jeu de données et les systèmes optimisés suivant chacun des sous-échantillons sont agrégés en un système final. L'ensemble des procédures est implémenté dans le logiciel libre FisPro. This work proposes a robust parameter optimization sequence for fuzzy inference systems. Each step allows for optimizing a set of interrelated parameters according to various criteria such as numerical accuracy and coverage. The fuzzy inference system structure is preserved and constraints are imposed to respect the fuzzy partition semantics. A ten-fold sub-sampling validation is also proposed for each of the datasets and all the systems optimized according to the sub-samples are aggregated in a final system. All the procedures are implemented in the FisPro open source software.
Dans cet article, nous étudions la modélisation et la commande du microclimat interne d'une serre agricole défini par la température et l'humidité de l'air. Il s'agit d'assurer un microclimat favorable à la croissance de la culture avec un rendement élevé et un coût de production faible. Atteindre cet objectif est difficile à cause de la non linéarité et la complexité des phénomènes impliqués ainsi que la haute sensibilité aux conditions externes. L'approche de commande prédictive à base d'un modèle flou est utilisée pour optimiser le comportement dynamique de la serre, concernant le profil des consignes et la minimisation de l'énergie relative à l'effort de commande. Les résultats de la simulation montrent que le contrôleur proposé possède de bonnes performances. This paper deals with the problem of modelling and control of greenhouses inside climate defined by the air temperature and humidity. The control objective aims to ensure a favourable inside microclimate for the culture growth to achieve high yield at low expense, good quality and low production cost. Achieving this goal is difficult, due to the complexity of the phenomena involved in the plant growth process and the high sensitivity to the outside weather. A fuzzy model based predictive control is used in order to optimise the future behaviour of the greenhouse environment, concerning the set-point profile and the minimisation of the control effort energy. The simulation results show that the proposed controller provides promising performances.
L'attaque “Sybil” peut avoir lieu dans un réseau de véhicules et peut affecter le fonctionnement de ce réseau. Nous présentons une méthode de fusion de données distribu ées appliquée à la détection d'attaques “Sybil” dans un réseau de véhicules. Il s'agit de quantifier, dans le cadre des fonctions de croyance, la confiance dans un noeud du réseau par échange des messages. Chaque noeud a un avis sur l'ensemble de son voisinage. Le but est de fusionner les informations transmises afin d'arriver à un état de connaissance globale dans le réseau. Pour valider cette approche, des simulations ont été faites sur différentes configurations du réseau. Sybil attacks can occur in a Vehicular Ad hoc Network “VANET” and can affect its functionnality for the benefit of the attacker. This paper presents a method based on distributed data fusion in order to detect such attacks in VANETs. By exchanging messages, nodes can quantify confidence over the network in the context of belief functions. Each node have an opinion on its neighborhood. The aim is to combine the transmitted data in order to build distributed confidence over the network. In order to validate this approach, simulations were performed on different network configurations.
Cet article introduit un système basé sur des fonctions de croyance pour l'échange et la gestion d'informations imparfaites portant sur des événements dans la communication inter-véhicules (VANET). Ce modèle est implémenté sous Matlab afin d'être testé. This paper introduces a system using belief functions for exchanging and managing imperfect information about events in vehicular networks (VANET). This model is implemented with Matlab in order to be tested.
L'estimation des niveaux marins et des houles extrêmes associés à des périodes de retour centennales revêt une importance majeure dans la conception des ouvrages de protection côtière et les analyses de risque d'inondation. L'approche commune pour l'estimation de ces niveaux consiste en une inférence statistique à partir des mesures disponibles, en supposant que la distribution des extrêmes est stationnaire. Cependant, durant les dernières décennies, une attention croissante a été accordée à l'intégration de l'effet du changement climatique dans les analyses de risques environnementaux. L'information sur les prévisions des impacts climatiques futurs sur le niveau marin et la houle, fournie par des experts, est généralement très incertaine du fait de la compréhension très limitée des processus physiques qui régissent le climat. Dans cet article, nous présentons une méthodologie basée sur la théorie des fonctions de croyance pour représenter et combiner des informations statistiques et des opinions d'experts, afin d'estimer un niveau de dimensionnement de période de retour de 100 ans. Estimation of extreme sea levels and waves for high return periods is of prime importance in hydrological design and flood risk assessment. The common practice consists of inferring design levels from the available observations and assuming the distribution of extreme values to be stationary. However, in the recent decades, more concern has been given to the integration of the effect of climate change in environmental analysis. Due to limited knowledge about the future world and the climate system, and also to the lack of sufficient sea records, uncertainty involved in extrapolating beyond available data and projecting in the future is huge and should absolutely be accounted for in the estimation of design values. In this paper, we present a methodology based on evidence theory to represent and combine statistical and expert evidence for the estimation of future extreme sea return level associated to a given return period.
Dans cet article, une méthode de diagnostic de machines électriques, exploitant des mesures de champs magnétiques, est présentée. L'approche est couplée à un processus de fusion d'informations basé sur les fonctions de croyance. Une étude antérieure a montré qu'il était possible de détecter un défaut sur le bobinage d'un moteur à l'aide d'une méthode non-invasive. Celle-ci est basée sur l'analyse des variations du champ magnétique à l'extérieur de la machine lorsque la charge varie. Plusieurs mesures autour de la machine sont nécessaires afin d'augmenter la probabilité de détection de défaut car la position du défaut par rapport au capteur influence de façon importante le résultat. Ainsi dans cet article, l'ensemble des mesures sont utilisées afin d'obtenir un diagnostic plus fiable et d'augmenter la probabilité de détection des défauts. La fusion des mesures est réalisée dans le cadre de la théorie des fonctions de croyance. Cette approche est testée sur des mesures réelles. In this paper, a method for diagnosis of AC machines using the magnetic field is presented. The method is associated to a fusion process based on belief functions. In previous works, it has been shown that it was possible to detect fault in the stator windings of electrical machines using a noninvasive method. It is based on the analysis of the variation of the magnetic field outside of the machine when the load varies. Several measurements around the machine are necessary to increase the probability of the fault detection because the fault position relatively to the sensor can strongly influence the results. So in this paper, it is proposed to exploit conjointly all the measurements in order to obtain a more robust and reliable diagnostic and to increase the probability of detecting the fault. The merging of the different estimations being realized in the framework of belief functions. This approach is tested on real measurements.
Cet article traite de requêtes floues conjonctives produisant des ensembles vides ou faiblement satisfaisants de réponses. Nous proposons une approche coopérative qui identifie efficacement les conflits à l'intérieur d'une telle requête et permet donc d'expliquer l'échec initial à l'utilisateur. La détection de ces conflits repose sur une étape préalable de calcul de cardinalités floues. L'avantage majeur de cette stratégie est de ne nécessiter qu'un seul parcours de la base de données. De plus, la compacit é des informations précalculées rend aisé leur stockage en mémoire. This paper deals with conjunctive fuzzy queries that yield an empty or unsatisfactory answer set. We propose a cooperative answering approach which efficiently retrieves the minimal failing subqueries of the initial query, which can then be used to explain the failure. The detection of the minimal failing subqueries relies on a prior step of fuzzy cardinalities computation. The main advantage of this strategy is to imply a single scan of the database. Moreover, the fuzzy cardinalities used by the approach easily fit in memory.
La réconciliation de données consiste à modifier des données bruitées ou peu fiables de manière à les rendre compatibles avec un modèle mathématique (ici représentant un réseau de flux de matière). L'approche traditionnelle est celle des moindres carrés. On montre qu'une approche par les ensembles flous permet de généraliser cette démarche, en la rendant plus flexible, moins dépendante d'une justification purement probabiliste parfois discutable, tout en incluant l'analyse par contraintes de type intervalles comme cas particulier. Data reconciliation consists in modifying noisy or unreliable data so as to satisfy a mathematical model (here a material flow network). The usual approach relies on least squares minimization. Here we show that the setting of fuzzy sets enables a wider point of view to be formalised, yielding an approach that is more flexible and less dependent on sometimes debatable probabilistic justifications. Moreover our setting encompasses constraintbased reasoning using intervals as well.
Les requêtes skyline représentent un paradigme très populaire et puissant pour extraire des objets ou points d'un ensemble de données multidimensionnelles. Elles s'appuient sur le principe de dominance de Pareto pour identifier l'ensemble des objets qui ne sont dominés par aucun autre objet de la même relation. Dans ce contexte, deux problèmes peuvent surgir : (i) un nombre important de réponses qui est généralement peu informatif du point de vue de l'utilisateur, (ii) un nombre insuffisant de réponses. Dans cet article, nous proposons une approche permettant un raffinement du skyline pour traiter le problème (i). Elle est basée sur une relation de dominance fondée sur des quantificateurs linguistiques. L'approche permet de sélectionner les objets les plus intéressants parmi ceux retournés par le skyline. Skyline queries are a popular and powerful paradigm for extracting interesting objects from a ddimensional dataset. They rely on Pareto dominance principle to identify the set of objects which are not dominated by any other object from the dataset. In this context, two main problems may be faced : (i) a large number of skyline objects which is less informative for the users ; and (ii) a small number of returned objects which could be also insufficient. In this paper, we tackle the first problem and propose an approach to deal with it. The proposed approach aims at refining the skyline in order to select the best of its elements. A new definition of dominance relationship based on fuzzy quantifiers, is introduced. The approach is intended to be integrated in flexible querying systems of d-dimensional databases.
Cet article propose d'étudier les profils de réponses des candidats aux tests du concours des ´ Elèves Pilotes de Ligne de l'ENAC afin d'extraire les profils à risque qui correspondent à des profils des candidats qui ont précédemment échoué lors de la formation pratique. Pour extraire ces profils, des outils de fouille de données sont utilisés. De plus, on utilise une nouvelle technique de classification floue afin de mesurer la pertinence de tels profils. This article proposes to study answer profiles of candidates in the results of the selection contest for student pilots. The aim is to extract risky profiles that match the profiles of candidates who previously failed the practical training. To extract these profiles, data mining tools are used.We also use a new form of fuzzy clustering in order to measure the relevance of such profiles.
Les réseaux possibilistes sont des outils importants pour modéliser le raisonnement sous incertitude. Ils permettent de représenter les connaissances d'une façon compacte en les codifiant par une distribution possibiliste jointe. Dans ce papier, nous nous intéressons à la définition d'un nouveau concept : la négation d'un réseau possibiliste, qui permettra la codification de l'inverse de la distribution possibiliste jointe. Par la suite, nous proposerons un algorithme de propagation pour calculer la distribution de possibilités associée à chaque événement. Notre algorithme est basé sur la construction de l'arbre de jonction associé à la structure initiale. Possibilistic networks are important tools for reasoning under uncertainty. They are compact representations of joint possibility distribution that encode available expert knowledge. In this paper, we are interested in defining the concept of negated possibilistic networks which will encode the reverse of a joint possibility distribution. Then, we propose a propagation algorithm to compute a possibility degree of each event. Our algorithm is based on the junction tree associated with the original graphical structure.
L'article étend les travaux précédents de l'auteur sur une transformation probabilité-possibilité basée sur un principe de maximum de spécificité au cas de la somme de deux variables aléatoires. Cette transformation nécessite la connaissance de la relation de dépendance entre les deux variables aléatoires à ajouter. Nous considérons les cas de deux variables aléatoires continues symétriques toutes deux indépendantes ou comonotones. En fait, le cas comonotone est intiment lié au principe d'extension de Zadeh, et constitue souvent le pire cas en terme de spécificité, c'est-à-dire donnant les intervalles de dispersion les plus larges, néanmoins il peut arriver que l'indépendance soit pire que la comonotonie comme par exemple pour des lois de Pareto symétriques. Quand aucune information sur la dépendance n'est disponible, des bornes issues des bornes de Fréchet peuvent être utilisées pour construire la distribution de possibilité la moins spécifique. Based on author's previous works, this paper deals with the probability-possibility transformation of the sum of two random unimodal independent or comontonic variables. It is shown that the sum of two comontonic random variables is closely related to the Zahe's extension principle applied to possibility distributions. Often the comonotonic case leads to the mxaimal specific possibility distribution, but in the considered example of a symmetric Pareto distribution, the independence case is worst than the comonotonic case. When nothing is know about the dependence, bounds issued from the Fréchet bounds can be used to obtain a mxaiaml specific possibility distribution.
Cet article présente pour la première fois un parallèle entre deux théories importantes en traitement de l'information qui s'intéressent à des questions qui n'ont a priori rien à voir entre elles et qui concernent des communaut és de chercheurs bien distinctes : l'analyse formelle de concepts d'une part et la théorie abstraite de l'argumentation d'autre part. Elles exploitent toutes les deux une relation binaire exprimant pour l'une un lien objet-propriété, et pour l'autre une attaque d'un argument sur un autre argument. Le parallèle se précise davantage quand on considère la relation complémentaire “n'attaque pas” : on s'aperçoit alors que la notion d'extension stable à la base des sémantiques de l'argumentation correspond à l'idée de concept formel. L'article propose une première analyse du parallèle entre la théorie abstraite de l'argumentation, et l'analyse formelle de concepts, ellem ême augmentée de d'autres opérateurs que celui à la base des concepts formels, grˆace à un autre rapprochement avec la théorie des possibilités. Ce parallèle paraît intéressant pour en particulier enrichir la théorie abstraite de l'argumentation dans le cas de relations bi-valuées, comme dans le cas de relations floues. Un cube d'oppositions entre huit ensembles remarquables d'arguments peut ainsi être construit. This paper for the first time presents a parallel between two important theories for the treatment of information which address questions that are apparently completely different and that are studied by research communities that are fully distinct : the formal concept analysis theory on the one hand and the abstract theory of argumentation on the other hand. These two theories exploit a binary relation expressing a link object-property for the first one, and the attack of an argument by another argument for the second one. The parallel becomes more accurate when considering the complementary relation “does not attack”. Then, it appears that the notion of stable extension which is at the basis of the semantics for argumentation corresponds to the idea of formal concept. The paper proposes a preliminary study of the parallel between abstract argumentation theory and formal concept analysis, itself enriched with operators other than the one at the basis of formal concepts thanks to an analogy with possibility theory. This parallel appears to be of interest for providing a richer view of the abstract theory of argumentation in the case where the relation is bi-valued, as in the case where the relation is fuzzy. A cube of oppositions between eight remarkable sets of arguments is thus obtained.
Nous proposons deux extensions de la préférence statistique aux variables aléatoires floues de type L-R en deux étapes. La première, commune aux deux extensions, consiste à étendre la préférence statistique des variables aléatoires réelles aux intervalles aléatoires en utilisant l'ordre des intervalles. La deuxième étape consiste à généraliser la préférence statistique entre les intervalles aléatoires aux variables aléatoires floues de type L-R, en nous appuyant sur les travaux de Chanas et col., qui consistent à généraliser l'ordre des intervalles de nombres réels aux intervalles flous du type L-R, donc en utilisant les indices de comparaison d'intervalles flous du type L-R dus à ces derniers. Nous proposons alors deux définitions de la préférence statistique entre les variables aléatoires floues de type L-R, l'une coincide avec la dominance stochastique entre ces indices, qui deviennent des variables aléatoires réelles à valeurs dans l'intervalle (0, 1], l'autre utilise la préférence statistique entre ces dernière. Nous montrons que l'une raffine l'autre. Two extensions of the statistical preference to fuzzy random variables of type L-R are proposed in two steps. The first, the same for two extensions, consists in extending the statistical preference of random variables to random intervals by means of interval orders. The second step, consists in generalizing the statistical preference between random intervals to fuzzy random variables of type L-R, based on works of Chanas et al., who generalize interval order on reals intervals to fuzzy intervals of type L-R. We use the degrees of comparison of fuzzy intervals given by these authors. We propose then two definitions of statistical preférence of fuzzy random variables of type L-R. The first one applies the definition of stochastic dominance to these degrees, which become random variables taking values are in the interval (0, 1]. The other ones use the statistical preférence between these degrees. It is shown that the first method is more demanding and is refined by the second one.
Ce travail s'inscrit dans le cadre du projet RIDER (projet visant à développer un système de gestion de l'énergie faiblement dépendant du bâtiment à contrôler) et propose une nouvelle approche pour réduire les coûts énergétiques en se basant sur le confort thermique. Cette approche exploite la notion du confort thermique afin de calculer de nouvelles consignes à appliquer au système de contrôle du conditionnement du bâtiment. L'approche s'appuie sur le fait que le confort thermique est une notion multidimensionnelle subjective. La littérature propose des modèles statistiques pour appréhender le confort thermique. Malheureusement, ces modèles sont fortement non linéaires et non interprétables ce qui rend difficile leur utilisation pour du contrôle ou de l'optimisation. Ce papier présente un nouveau modèle de confort basé sur la théorie de l'utilité multi attributs et les intégrales de Choquet. L'intérêt d'un tel modèle est qu'il est interprétable en termes de préférences, linéaire par simplexe ce qui facilite la résolution des problèmes d'optimisation et plus concis qu'un système de contrôle à base de règles floues. Quelques fonctionnalités de supervision illustrent l'intérêt de notre approche. The present work is part of the RIDER project (it aims to develop a weak system dependency of energy management framework which could be applied to different systems and various scales.) and proposes a new approach based on thermal comfort in order to reduce energy costs. This approach takes advantage of the thermal comfort concept in order to calculate new setpoints for the building energy control system. It relies on the fact that thermal comfort is a subjective multidimensional concept. The literature provides statistical thermal comfort models but their complexity and non-linearity makes them not useful for regulation and optimization processes. That's why, this paper aims to present a new thermal comfort model based on the utility theory and Choquet integrals. The advantages of our model are its interpretability in term of preference functions, its linearity by simplex which simplifies optimization problems' solving, and it is more succinct compared to a fuzzy rule based solution. The relevance of our approach is illustrated by some supervision cases.
Dans ce travail, nous proposons une nouvelle approche pour traiter les relations de préférences de l'utilisateur, au lieu des notations absolues, dans les systèmes de recommandation. Les préférences sont des scores exprimées qualitativement à travers des termes linguistiques. C'est une technique qui semble appropri ée lorsque celles-ci sont imprécises et vagues. Par ailleurs, et du fait que l'évaluation monocritère peut cacher l'hétérogénéité des préférences, réduisant ainsi la qualité de la prédiction des items à recommander, nous avons opté pour l'évaluationmulticritère qui est une technique prometteuse pour améliorer la précision de la recommandation des systèmes actuels. Les scores des items sont représentés à travers un graphe de préférence qui reflète mieux les relations entre items. La similarité entre utilisateurs est estimée en se basant sur la similarité de leurs relations de préférences (au lieu des scores absolus) qui reflètent mieux la similarité de leurs modèles d'évaluations. L'approche améliore d'une certaine façon la précision des systèmes de recommandation classiques puisque les graphes utilisés pour réaliser la prédiction, sont assez informatifs et capturent fidèlement les relations entre les scores initiaux de l'utilisateur. In this work, we propose a novel approach to deal with user preference relations instead of absolute ratings, in recommender systems. User's preferences are ratings expressed qualitatively by using linguistic terms. This is a suitable technique when preferences are imprecise and vague. And because the overall item rating may hide the users' preferences heterogeneity and mislead the system when predicting the products that users are interested in, we choose to incorporate multi-criteria ratings, which is a promising technique to improve the current recommender systems accuracy. User's items ratings are represented through a preference graph which highlight better items relationships. Similarity between users is computed in terms of the similarity of their preference relations (instead of their absolute ratings) which can better reflect similar users' ratings patterns. The approach enhances somehow the classical recommender system precision because the graphs used for prediction are informative and reflect user's initial ratings relations.
La classification multi-label permet d'associer à une observation donnée une ou plusieurs classes simultan ément. RAkEL est l'une des méthodes utilisées pour répondre à ce problème. Cette méthode est basée sur la division de l'ensemble des classes en plusieurs sousensembles, chaque combinaison possible de labels étant considérée comme une nouvelle classe. Chacun de ces sous-ensembles est utilisé pour l'apprentissage d'un classifieur multi-label décidant sur les classes lui appartenant. Pour la décision finale sur l'appartenance d'un individu à une classe, une stratégie de vote est utilisée. Dans cet article, nous présentons une méthode de classification multi-label consistant à utiliser la méthode RAkEL conjointement avec la théorie des fonctions de croyance adaptée au formalisme des variables multi-valuées. L'utilisation de la théorie des fonctions de croyance rend possible l'association d'une fonction de masse à chaque classifieur. Ces fonctions sont ensuite combinées par un opérateur adapté dans le but de donner une décision finale sur l'appartenance d'un individu à un ensemble de classes. Plusieurs résultats sur des exemples réels montrent les bonnes performances de cette méthode par rapport à la méthode RAkEL de base. Multi-label classification deals with problems in which each instance can be associated with a set of labels. An effective multi-label method, named RAkEL, randomly breaks the initial set of labels into smaller sets and trains a single-label classifier in each of this subset. To classify an unseen instance, the predictions of all classifiers are combined using a voting process. In this paper, we adapt the RAkEL approach under the belief function framework applied to set-valued variables. Using evidence theory allows us to handle partial information by associating a mass function to each classifier and combining them conjunctively. Experiments on real datasets demonstrate that our approach improves classification performances as compared to the basic RAkEL method.
Dans cet article, nous proposons d'utiliser la représentation d'une distribution d'observations par histogrammes quasi-continus pour réaliser une détection temps réel de mouvements dans une séquence d'images. Nous comparons les résultats de cette détection à deux méthodes de référence de la littérature. This paper presents a new method for real time motion detection in a video sequence. This method uses the quasi-continous histogram technique to represent the density of the background. This method is compared to two other very competitive methods of the litterature.
Dans cet article, on s'intéresse au problème de poursuite et de classification simultanées de plusieurs cibles. Ce travail est à rapprocher de celui de Smets et Ristic. L'article est préliminaire et fédère des approches de plusieurs travaux. L'étape de poursuite sera assurée par des filtres de Kalman et d'IMM (Interacting Multiple Model) classiques, seule l'étape de classification est assurée par des fonctions de croyance. Les objets à classer sont invariants dans le temps, et il n'y a donc pas d'étape de détection ou de suppression de cibles. Une comparaison sur un problème de poursuite d'avions permet d'illustrer quelques différences avec l'approche Bayésienne. In this paper, we study the problem of joint tracking and classification of several targets. Targets are considered to be known and sufficiently separated so that they cannot be confused. Our goal is to shed light on the contribution of credal classification over the Bayesian classification. Our job is to track the movement of targets using conventional Kalman filters and IMMs, and compare the performances of credal and Bayesian classification.
Dans cet article, nous proposons un cadre pour traiter deux grands problèmes lors de l'extraction de motifs graduels basée sur les ordres flous et sur le coefficient de corrélation de rang gamma flou. Les problématiques abordées sont i) la consommation mémoire et ii) la précision, la représentation, et le stockage efficace des degrés de concordance floue de chaque paire d'indices (i, j) par rapport à la perte ou le gain de puissance de calcul. Dans ce contexte, notre approche implique l'utilisation d'une technique dédiée au traitement des matrices creuses (afin d'éviter le stockage des valeurs zéro) et une vaste gamme de représentations de précision variable (de 1 à 64 bits). In this paper we introduce a framework to address two major problems in gradual itemset mining based on fuzzy orderings and fuzzy gamma rank correlation. The issues addressed are : 1) the high memory consumption, 2) the precision, representation and efficient storage of the fuzzy concordance degrees of each index pair (i,j) versus the loss or gain of computing power. In this context, our approach involves the use of a dedicated technique for handling sparse matrices (in order to avoid the storage of zero values) and a wide range of representations of precision from 2 to 64 bits.
Les motifs graduels, de la forme « plus/moins A, plus/moins B » extraient des connaissances sous la forme de corrélations entre attributs. Les méthodes d'extraction de tels motifs peuvent générer des motifs contradictoires, produisant par exemple simultanément les motifs « plus A, plus B » et « plus A, moins B ». Pour gérer ces contradictions, cet article propose une définition contrainte du support d'un motif graduel, qui, en particulier, ne dépend pas uniquement du motif considéré, mais aussi de ses contradicteurs potentiels. La pertinence de l'approche est illustrée sur des bases de données de l'UCI. Gradual patterns of the form « the more/less A, the more/less B » extract knowledge in the form of correlations between attributes. The methods for extracting such patterns can generate contradictory patterns, for example simultaneously producing the patterns « the more A, the more B » and « the more A, the less B ». To handle these contradictions, this paper proposes a constrained definition of a gradual support, which, in particular, does not only depend on the considered pattern, but also on its potential contradictors. The relevance of the approach is illustrated on UCI databases.
Dans cet article, une stratégie d'approximation est proposée pour déterminer l'intervalle flou le plus proche d'un intervalle graduel non-monotone. L'approximation est vue comme un problème de régression pour des données de type intervalle. Pour une structure fixée du modèle d'approximation, la phase d'identification paramétrique est spécifiée sous la forme d'un problème d'optimisation sous contraintes. La méthodologie d'approximation proposée est appliquée au cas de l'approximation floue d'une moyenne graduelle pondérée, calculée en utilisant l'arithmétique de Kaucher pour des Intervalles Graduels Etendus (IGE). Dans ce contexte, la connaissance de l'origine des données de régression permet de fixer une forme analytique du modèle d'approximation en adéquation avec les données et ainsi d'améliorer fortement la qualité de l'approximation par rapport à celle obtenue avec des intervalles flous trapézoïdaux. In this paper, a strategy of approximation is proposed to determine the fuzzy interval nearest to a gradual nonmonotonic interval. The approximation is viewed as a regression problem for interval data. According to the structure chosen for the approximation model, the parametric identification is specified as an optimization problem subject to constraints. The proposed methodology is applied to the fuzzy approximation of some version of the gradual weighted average, computed using the Kaucher's arithmetic with extended gradual intervals. In this context, knowledge of the origin of the regression data set allows an analytic formulation of the approximation model in adequacy with the data and thus greatly improves the quality of the approximation compared to that obtained with fuzzy trapezoidal intervals.
Les arbres de décision sont des classifieurs très populaires. Dans cet article, nous étendons une méthode de construction d'arbres de décision à deux classes, basés sur les fonctions de croyance, au cas multi-classe. Nous proposons pour cela trois extensions possibles : combiner des arbres à deux classes ou directement étendre l'estimation des fonctions de croyance au sein de l'arbre au cadre multi-classe. Des expériences sont effectuées de manière à comparer ces arbres aux arbres de décision classiques Decision trees are popular classification methods. In this paper, we extend to multi-class problems a decision tree method based on belief functions previously described for two-class problems only. We propose three possible extensions : combining multiple two-class trees together and directly extending the estimation of belief functions within the tree to the multi-class setting. We provide experiments, results and compare them to usual decision trees.
Dans ce travail, nous nous intéressons à la notion de mesure de dissimilarité dans la théorie des fonctions de croyance (TFC). Différentes classes de mesures sont présentées. Les mesures directes reposent sur l'interprétation géométrique des fonctions de croyance. Les mesures indirectes utilisent d'abord une transformation probabiliste ou floue des fonctions de masse, puis des indices de dissimilarité sont calculés dans le nouvel espace de représentation. Des exemples de simulations montrent le comportement des différents indices étudiés. In this work, we are focusing on the notion of measuring dissimilarity in the belief functions theory (BFT). Different classes of measures are presented. The direct measures are directly inspired from the geometrical interpretation of belief functions. Concerning indirect measures, basic belief assignements (bba) are first transformed into probability or possibility distributions and dissimilarities are calculated using the new representations. Some simulation examples show the behaviour of the different measures studied.
Un des inconvénients majeurs de l'utilisation des théories probabilistes imprécises est le coût calculatoire qui leur est associé. Pour réduire ce coût, il est intéressant de savoir sous quelles conditions certaines propriétés des probabilités classiques qui facilient le calcul sont conservées par des représentations probabilistes imprécises. Dans cet article, nous étudions sous quelles conditions le principe d'inclusion-exclusion (ou égalité de Poincaré) est satisfait par des fonctions de croyances. Nous illustrons ensuite un cadre pratique dans lequel ces conditions sont satisfaites : la fiabilité des systèmes. One of the main drawback of imprecise probability theories is the computational burden associated with their use. To reduce this cost, it is useful to know under which conditions some properties of classical probabilities used in calculations can be extended to imprecise probabilistic frameworks. In this paper, we focus on the inclusionexclusion principle (a.k.a. Poincaré equality) and the conditions under which belief functions do satisfy it. We then show that the results can be applied to the particular framework of system reliability.