La conférence LFA est la manifestation scientifique où les chercheurs viennent s'informer et débattre des avancées les plus récentes réalisées au sein de la communauté francophone, tant universitaire qu’industrielle, dans le domaine des théories de l'incertain. En particulier, LFA offre une bonne opportunité aux jeunes chercheurs du domaine de présenter leurs travaux à l’ensemble de la communauté francophone. LFA est aussi l’occasion de recueillir l’avis d’experts sur toute application impliquant la gestion et la quantification de l’incertain, la gestion des risques, ou la prise de décision en situation complexe.
Pour cette 25e édition, 35 articles, qui couvrent les différents domaines de la logique floue et ses applications ont été retenus. Ce programme est complété par 3 conférences invitées :
- la première de Rafael Peñaloza de KRDB Research Centre (Free University of Bozen-Bolzano, Italie) concerne les logiques de description floue et plus précisément les travaux relatifs aux limites de la décidabilité et du raisonnement efficace avec ces logiques. La présentation met l’accent sur certains cas décidables où les méthodes de raisonnement classiques peuvent être appliquées,
- la deuxième est présentée par Steven Schockaert de School of Computer Science and Informatics (Cardiff University, Royaume-Uni) et porte sur l’apprentissage de théories en logique possibiliste à partir de données,
- le dernier exposé de Jean-Paul Delahaye, Professeur émérite à l’Université de Lille1, est une conférence grand public intitulée « Le hasard, ses régularités et ses surprises ».
CONFÉRENCES INVITÉES
The Status of Fuzzy Description Logic Reasoning
Rafael Penaloza Nyssen
Learning possibilistic logic theories from data
Steeven Schockaert
Le hasard, ses régularités et ses surprises
Jean-Paul Delahaye
1) BASES DE DONNEES
1.1 Requêtes quantifiées floues structurelles sur des bases de données graphe
Olivier Pivert, Olfa Slama and Virginie Thion.
1.2 Elargissement du Skyline: Une approche fondée sur une relation de proximité floue
Belkasmi Djamal, Allel Hadjali and Hamid Azzoune.
1.3 Maintenance du Skyline sur des données évidentielles
Sayda Elmi, Mohamed Anis Bach Tobji, Dalila Koulougli, Allel Hadjali and Boutheina Ben Yaghlane.
2) LOGIQUE - PREFERENCES
2.1 Négation de croyances graduelles : une discussion
Bénédicte Legastelois, Marie-Jeanne Lesot and Adrien Revault d'Allonnes.
2.2 Représentation graphique de préférences multi-agents
Nahla Ben Amor, Didier Dubois, Héla Gouider and Henri Prade.
2.3 Apprentissage d'intégrales de Sugeno à partir de données inconsistantes
Quentin Brabant and Miguel Couceiro.
3) CLASSIFICATION
3.1 New decision tree classifier for dealing with partially uncertain data
Trabelsi Asma, Elouedi Zied and Lefevre Eric.
3.2 Arbres de décision flous adaptatifs
Wenlu Yang, Christophe Marsala, Andrea Pinna, Maria Rifqi and Patrick Garda.
3.3 Quantifier le coût de l'imprécision
Sébastien Destercke, Marie-Helene Masson and Gen Yang.
4) COMMANDE I
4.1 Commande temps-réel d’un pendule inversé: Approche TS descripteur robuste
Thi Van Anh Nguyen, Benyamine Allouche, Laurent Vermeiren, Antoine Dequidt, Quoc Viet Dang and Cung Le.
4.2 Loi de commande basée sur une estimation pour approximer un contrôleur flou basé sur un modèle Takagi-Sugeno
Thomas Laurain, Jimmy Lauber and Reinaldo Palhares.
4.3 Estimation de défauts et du comportement de la dégradation de systèmes floues de type Takagi-Sugeno
Lyna KHERBOUCHE, Mohammed CHADLI and Ahmed El Hajjaji
5) FOUILLE DE DONNEES, ANALYSE DE DONNEES
5.1 Proportions analogiques : Créativité et fouille de données
Nicolas Hug, Henri Prade, Gilles Richard and Mathieu Serrurier.
5.2 Modèles de régression : Comparaison des approches statistique et ensembliste
Sylvie Galichet and Reda Boukezzoula.
6) APPLICATIONS I
6.1 Fuzzy non-cooperative bargaining process of international climate change negotiations: Case of the Kyoto Protocol
Azza Zidi, Nahla Ben Amor and Raouia Ayachi.
6.2 Des fonctions d'agrégation et de comparaison pour jouer à Motus
Nathalie Chetcuti-Sperandio, Fabien Delorme and Sylvain Lagrue.
6.3 Extraction automatique d’évaluations multicritère pour l’identification d’objectifs prioritaires et réalistes dans le domaine du tourisme
Abdelhak Imoussaten, Benjamin Duthil, François Trousset and Jacky Montmain.
7) THEORIE DES FONCTIONS DE CROYANCE
7.1 Maximum de vraisemblance et information incomplète
Inés Couso and Didier Dubois.
7.2 A norm-based view on conflict
Frédéric Pichon and Anne-Laure Jousselme.
7.3 Système d’aide à la reconnaissance d’espèces d’arbres à partir d’une base de connaissance incomplète, partielle et conflictuelle
Rihab Ben Ameur, Lionel Valet, Didier Coquin and Sylvie Galichet.
8) COMMANDE II
8.1 Approche STFIS-FPID pour le Contrôle d’un Pendule Inversé Simple non Linéaire
Larbi Kharroubi, Hichem Maaref and Wahid Nouibat.
8.2 Filtrage H infini des systèmes non linéaires dans un domaine fréquentiel fini
Doha El Hellani, Ahmed El Hajjaji and Roger Ceschi.
8.3 Opérateurs temporels flous en ligne pour la comparaison et la caractérisation de signaux
Jean-Philippe Poli and Laurence Boudet.
9) THEORIE DES POSSIBILITES
9.1 Calcul d’indicateurs pédagogiques par des réseaux possibilistes
Guillaume Petiot.
9.2 Contextes formels incomplets ou incertains : Vers une généralisation possibiliste de l’analyse formelle de concepts
Zina Ait Yakoub, Yassine Djouadi, Didier Dubois and Henri Prade.
9.3 Lexicographic refinements in possibilistic Markov decision processes: The finite horizon case
Nahla Ben Amor, Zeineb Elkhalfi, Helene Fargier and Régis Sabbadin.
10) CLUSTERING
10.1 Optimisation proximale pour le subspace clustering flou
Arthur Guillon, Marie-Jeanne Lesot and Christophe Marsala.
10.2 K-modes flous de codes binaires pour la segmentation non supervisée d'images hyperspectrales
Carl Frelicot, Michel Berthier and Saadallah El-Asmar.
10.3 Caractérisation floue de clusters de réponses
Aurélien Moreau, Olivier Pivert and Grégory Smits.
11) RAISONNEMENT, INCERTITUDE
11.1 Interprétation floue des expressions numériques approximatives
Sébastien Lefort, Marie-Jeanne Lesot, Elisabetta Zibetti, Charles Tijus and Marcin Detyniecki.
11.2 Système de liage de données manquantes basé sur la théorie des ensembles approximatifs pour le web sémantique
Karima Akli-Astouati, Nesrine Sid-Aaddila, Fatima-Zohra Belabdi and Hiba Belhadi.
11.3 Sur les systèmes flous type 2 en contrôle !
Reda Boukezzoula, Sylvie Galichet and Laurent Foulloy.
12) APPLICATIONS II
12.1 Contrôle de la position assise chez le sujet paraplégique
Mathias Blandeau, Victor Estrada-Manzo, Thierry Marie Guerra, Philippe Pudlo and Francois Gabrielli.
12.2 Modified Logistic Membership function for Poverty Measure
Besma Belhadj.
12.3 Contrôle en position par retour de sortie floue à commutations d’un actionneur électromécanique d’embrayage
Rémi Losero, Jimmy Lauber, Thierry Marie Guerra and Pascal Maurel.
Cet article traite de requêtes quantifiées floues adressées `a une base de données graphe. Nous étudions une forme particulière de requête floue structurelle et montrons comment elle peut être exprimée dans le langage Fudge défini précédemment. Une stratégie d'évaluation fondée sur un mécanisme de compilation qui dérive des requêtes classiques pour accéder aux données est également décrite.
connu des requêtes à préférences. Elles s'appuient sur le principe de dominance de Pareto pour identifier les objets qui ne sont dominés par aucun autre objet d'une base de données. Cependant, l'interrogation d'un tel ensemble de données `a l'aide de l'opérateur skyline peut retourner peu de réponses, ce qui est insuffisant du point de vue de l'utilisateur. Dans cet article, nous discutons une approche permettant d'élargir le skyline avec d'autres objets particuliers afin d'aider l'utilisateur dans la prise de décision. L'idée consiste `a identifier les points les plus proches, parmi ceux écart´es par le skyline, des points skyline. Le concept cl´e de notre approche est une relation de proximité floue. En outre, un algorithme de calcul du skyline relax´e est propos´e et des études expérimentales ont été réalisées afin de valider l'efficacité et la performance de notre approche.
Dans de nombreuses applications récentes, les données sont intrinsèquement imparfaites, i.e., incertaines, imprècises et incomplètes. Plusieurs travaux se sont intéressés à la gestion des bases de données incertaines. L'incertitude de données peut être modélisée au moyen de la théorie de l'évidence. D'autre part, l'opérateur skyline est un outil puissant pour extraire les objets les plus intéressants dans une base de données. Cependant, la maintenance du résultat du skyline reste toujours une tâche délicate en présence des mises à jour règulières dans une base de données. Cet article aborde le problème de la maintenance des objets skyline dans le contexte des bases de données incertaines où les mises à jour sont fréquentes. En particulier, nous proposons des algorithmes pour la maintenance des objets skyline dans le cas d'insertion ou de suppression d'objets. Les expérimentations menées démontrent l'efficacité de notre approche.
La négation est une opération centrale dans la construction de systèmes logiques et elle joue un rôle essentiel dans les outils de raisonnement et de manipulation d'information. Cet article considère le problème de la négation pour la manipulation de croyances graduelles, dans le cadre d'une logique doxastique pondérée : il étudie trois interprétations de la négation pour ces informations de haut niveau, qui transfèrent respectivement la négation aux trois composantes des croyances graduelles : la formule `a propos de laquelle une croyance est exprimée, la modalité de croyance et le degré de croyance. Il discute le choix de cadres formels appropriés dans chaque cas, en considérant les logiques modales, floue et multi-valuée.
Cet article propose une représentation graphique de préférences multi-agents, basée sur la théorie des possibilités. C'est une contrepartie graphique de la logique possibiliste multi-agents. Nous proposons d'abord une représentation graphique où les préférences des agents sont tout ou rien : soit chaque ensemble d'agents accepte totalement le choix, soit il le rejette. Cette représentation est ensuite étendue à des préférences nuancées. Dans cet article, nous examinons les propriétés de base des modèles proposés et leurs algorithmes associés. Nous montrons aussi comment à partir de ces réseaux, construire des réseaux relatifs à des sous-ensembles d'agents.
En prenant pour cadre de référence l'aide à la décision multi-critéres et l'agrégation de préférences, cet article traite de l'apprentissage de l'intégrale de Sugeno à partir de données inconsistantes, et dont les valeurs appartiennent `a un ensemble totalement ordonné. Il s'agit d'un problème d'optimisation difficile, puisqu'une intégrale de Sugeno est définie d'après 2n valeurs, o`u n est le nombre de paramètres. Dans cet article nous considérons deux méthodes : la première est une application du recuit simulé, et la seconde est un nouvel algorithme reposant sur la séléction préalable d'un sous-ensemble de données consistantes, dont le temps d'exécution est peu sensible `a la valeur de n.
L'arbre de décision est l'une des méthodes de classification les plus connues et à été largement utilisé dans plusieurs domaines, notamment dans la fouille de données et l'apprentissage automatique. Cependant, les algorithmes standards de construction de l'arbre de décision ne sont pas capables de gérer l'incertitude, en particulier l'incertitude épistémique. Dans cet article, nous proposons d'adapter la technique d'arbre de décision à un environnement incertain. Concrètement, nous traitons le cas où les valeurs d'attributs d'objets sont incertaines et où cette incertitude est représentée dans le cadre de la théorie des fonctions de croyance. La méthode proposée concerne à la fois la construction de l'arbre de décision et la classification de nouveaux objets.
Dans cet article, une approche d'adaptation dynamique d'un arbre de décision flou est présentée et des résultats d'expérimentations sont donnés montrant l'intérêt et efficacité de cette approche. De plus, la capacité adaptabilité des arbres ainsi que les limites de cette approche sont étudiées.
Un problème récurrent des méthodes (par exemple probabilistes imprécises) qui produisent des prédictions imprécises est leur comparaison, en particulier dans les problémes de classification. En effet, est-il préferable d'avoir une estimation trés imprécise mais fiable (contenant plus souvent la vérité), plutôt qu'une estimation précise mais moins fiable (commettant plus souvent une erreur) ? Dit autrement, comment quantifier la valeur ou le coût de l'imprécision ? Le but de ce papier est d'une part de proposer un ensemble de propriété qu'une telle évaluation devrait satisfaire, et d'autre part de proposer un moyen général de déduire des coûts affectés aux prédictions imprécises, dépendant d'un seul paramètre mesurant la ”prudence” de l'évaluateur.
Cet article présente la synthèse d'une loi de commande temps réel robuste d'un pendule inversé rotatif par l'approche descripteur Takagi-Sugeno incertain. Basée sur une fonction floue de Lyapunov quadratique, des conditions de stabilisation sont données sous la forme d'un problème d'Inégalités Matricielles Linéaires. Des résultats expérimentaux illustrent l'efficacité de l'approche proposée.
Ce papier propose de résoudre le problème de l'inversion matricielle dans les contrôleurs avancés basés sur la représentation Takagi-Sugeno, comme la plupart des contrôleurs non-PDC (Parallel Distributed Compensation). Ces contrôleurs sont difficiles à utiliser dans des ordinateurs embarqués qui ont des performances limitées dues aux ressources technologiques. L'originalité de la méthode proposée est d'utiliser un observateur pour approximer l'inversion de la matrice floue. Grâce à un tel observateur, le contrôleur avancé peut être approximé à la fois en phase transitoire et permanente. Par conséquent, une nouvelle loi de commande basée sur une estimation, appelée loi de commande ECLATS (Estimation-based Control Law for Approximating Takagi-Sugeno-based controller), est développée pour approximer un contrôleur flou basé sur un modèle Takagi-Sugeno. Ce contrôleur ECLATS, conçu en utilisant l'analyse de la stabilité de Lyapunov et la formation LMI, peut fournir des performances similaires aux contrôleurs flous avancés, mais sans aucune inversion matricielle. Des exemples numériques illustrent l'efficacité de la méthode proposée.
Dans ce papier, on traite de l'estimation des dégradations des systèmes dynamiques en représentation Takagi- Sugeno. La dégradation, considérée comme une entrée inconnue, est ensuite estimée à l'aide d'observateurs à entrée inconnue. Cette démarche nous permettra de contourner les problèmes de l'estimation des dégradations à base de modèle. Deux types d'observateurs sont considérés, un observateur à entrée inconnue de type proportionnel et un autre de type PI (proportionnel-integral). L'application de chacun de ces observateurs pour l'estimation de la dégradation d'un système de suspension de véhicule, a permis de mettre en évidence les avantages et inconvénients de chaque observateur.
Une proportion analogique est un énoncé de la forme A est à B comme C est `a D, o`u A,B,C,D sont des vecteurs de valeurs booléennes ou numériques. Ce type d'énoncé exprime que A diffère de B comme C diffère de D (et vice-versa). Le fait que des proportions analogiques soient satisfaites pour certaines variables permet d'extrapoler qu'une telle relation tient pour d'autres et ainsi de prédire des valeurs manquantes. Une autre propriété remarquable est que, étant donnés trois vecteurs A,B,C, il en existe au plus un D, généralement différent des trois premiers qui forme avec eux une proportion analogique. Cette propriété est à la base de capacités créatives qui sont discutées ici. Elles peuvent être aussi intêressantes pour des systèmes de recommandation, et aider `à fournir des explications. Par ailleurs, si des proportions analogiques tiennent sur un ensemble de données, cela constitue une information qui mérite que l'on s'y intéresse. Il est donc naturel de chercher `a extraire de telles proportions, comme on chercherait des règles d'association. Nous proposons un algorithme qui extrait des proportions analogiques.
Lorsqu'un système n'est connu qu'à travers un échantillon d'observations, il est usuel de réaliser une régression de façon à estimer les paramètres d'un modèle linéaire de description ou de prédiction. Cet article présente une étude comparative de différents paradigmes de représentation des systèmes linéaires et leur déclinaison dans des problèmes de régression. Trois paradigmes distincts, à savoir les modèles statistiques, les modèles arithmétiques à base d'intervalles et les modèles à base de règles graduelles sont considérés pour la représentation de systèmes linéaires simples à une seule variable explicative. Les méthodes d'estimation associées à ces paradigmes sont utilisées pour répondre à un problème de régression de façon à confronter les différents modèles obtenus.
Les incertitudes sont inhérentes aux négociations du changement climatique et peuvent influencer le processus de négociation. Dans cet article, nous étendons un processus de négociation non coopératif du Protocole de Kyoto vers un modèle flou, où les inventaires des émissions du CO2 sont considérés comme des nombres flous. Nous étudions les effets de ces incertitudes sur le processus de négociation, ainsi que les décisions des négociateurs et nous montrons que la modélisation des incertitudes donne aux négociateurs une gamme d'alternatives possibles que le modèle crisp ne parvient pas à prendre en considération.
Motus est un jeu de lettres télévisé dans lequel un joueur doit retrouver un mot caché dont il connaît la première lettre et la longueur. Pour cela, il propose différents mots et se voit notifier les lettres bien placées et mal placées. Nous montrons tout d'abord dans cet article qu'il n'existe pas de stratégie permettant de trouver tous les mots avec le nombre de propositions imparties. Ensuite, nous étudions différentes stratégies basées sur des fonctions d'agrégation et de tie-breaks. Toutes ces stratégies sont testées sur l'ensemble des mots de 5 à 10 lettres de la langue française, ce qui nous permet enfin de discuter des performances respectives de ces stratégies. Nous montrons notamment que les critères de moyenne de coups joués, de pire coup et de nombre de mots manqués peuvent être antagonistes.
Cet article s'intéresse à la détermination des performances qu'il convient d'améliorer en priorité dans une évaluation multicritère. Il s'agit d'identifier les dimensions selon lesquelles l'amélioration serait la plus profitable tout en restant réalisable. Un indice de plus-value estime la pertinence d'une amélioration au regard de ces deux aspects. Cette proposition est intégrée dans un système de recommandation qui exploite automatiquement des bases de critiques en langage naturel recueillies sur le web pour estimer les préférences des utilisateurs et les chances de succès des améliorations, puis identifier les paramètres de l'indice de plus-value. Cela permet de faciliter les phases d'évaluation par critère et d'identification du modèle de préférence des utilisateurs, généralement complexes et fastidieuses, plus particulièrement quand les interactions entre les critères sont prises en compte. Cette proposition est appliquée à l'amélioration de services hôteliers dans la région Nouvelle Aquitaine qui souhaite faire un diagnostic et améliorer l'attractivité de ses hôtels.
La méthode du maximum de vraisemblance est bien connue et constitue l'un des piliers de l'inférence statistique. Elle suppose des données précises. Mais quand les données sont imprécises ou incomplètes, il n'est pas trivial de définir une fonction de vraisemblance. Cela dépend du problème qu'on veut traiter. Cette article discute plusieurs définitions possibles et les difficultés qu'elles peuvent engendrer.
Récemment, une fondation axiomatique à eté donnée à la mesure du conflit entre fonctions de croyance. Dans ce contexte, il a été montré que le conflit peut être évalué par l'inconsistance résultant de leur combinaison conjonctive. Deux mesures de consistance entre fonctions de croyance ont été définies, donnant ainsi deux mesures de conflit. Dans ce papier, nous mettons en lumière que ces mesures de consistance correspondent aux normes infinies des fonctions de plausibilité et de contour, offrant ainsi une vue géométrique sur les mesures de conflit considérées. De plus, ce résultat nous permet de mettre en évidence que la consistance d'une fonction de croyance n'est rien d'autre que sa distance à l'état d'inconsistance totale. Comme une conséquence directe, le conflit entre fonctions de croyance est égal à un moins la distance entre leur combinaison conjonctive et l'inconsistance totale. Cela donne un nouveau regard sur l'utilisation de distances pour mesurer le conflit.
Ce papier propose un système de fusion d'information pour la reconnaissance d'espèces d'arbres à partir de photos de feuilles. L'approche consiste à entraîner des sousclassifieurs (forêts aléatoires) avec des attributs extraits de la photo d'une feuille. La base de connaissances est incomplète, partielle et certaines données sont conflictuelles. Un système de fusion hiérarchique, basé sur la théorie des fonctions de croyance, permet de fusionner les données provenant des différents sous-classifieurs. Les résultats obtenus sont comparés à une approche non hiérarchique qui a été mise en place dans un cadre de travail similaire.
Dans cet article, une approche STFIS (Self Tuning Fuzzy Inference System) et PID flou est proposée afin de contrôler, respectivement, la position du chariot et l'angle du pendule inversé. Le réseau neuro-flou STFIS a été utilisé afin de générer en ligne des règles floues d'un système d'inférence floue (SIF) de type Takagi- Sugeno d'ordre zéro en utilisant un algorithme de rétropropagation. Cet algorithme a été utilisé pour minimiser une fonction coût qui est composée d'un terme d'erreur quadratique et un terme 'weight-decay' qui empêche la croissance excessive des paramètres du réseau STFIS. Afin de balayer tout l'espace de sortie du contrôleur STFIS, une consigne variable a été appliquée au déplacement du chariot. L'apprentissage en ligne a permis de générer les conclusions des règles floues du SIF. Des résultats de simulation ont été présentés et montrant que le pendule inversé est maintenu dans sa position d'équilibre instable.
Cette communication porte sur la synthèse des filtres actifs pour les systèmes flous de type Takagi-Sugano (TS) à temps discret, dans un domaine fréquenciel fini. Des conditions suffisantes sont développées pour garantir `a la fois la convergence de l'erreur d'estimation et les performances H vis à vis des perturbations extérieures supposées bornées en norme et appartenir `a un domaine de fréquences finies. Pour réduire le conservatisme et le pessimisme des conditions de synthèse, des variables supplémentaires sont introduites en appliquant deux fois le lemme de Finsler. Les conditions de synthèse du filtre sont formulées en un problème d'optimisation sous contraintes d'inégalités matricielles linéaires (LMIs) dans les trois domaines fréquentiels (basses, moyennes et hautes fréquences). Un exemple de simulation est donné pour démontrer la faisabilité, l'efficacité et la réduction de conservatisme par comparaison avec des résultats existants dans la littérature.
Les systèmes experts flous peuvent être très utiles pour traiter des flux de données ou des flux d'évènements. Entre autres, les experts peuvent écrire des règles afin d'expliciter la manière dont les données doivent être traitées. Cependant, il s'avère fortement utile de pouvoir décrire les relations temporelles qui lient les données entre elles. Dans cet article, nous proposons une méthode simple pour créer des opérateurs temporels qui repose sur la définition mathématique de quelques opérateurs de base, puis de les combiner entre eux pour former des opérateurs plus complexes permettant de caractériser ou comparer des valeurs qui évoluent dans le temps. Pour cela, nous nous appuyons sur le concept d'expiration des expressions temporelles, c'est-à-dire la capacité de modifier les valeurs des sorties sans que les entrées n'aient changé.
Les plateformes numériques d'apprentissage permettent de récupérer un grand nombre de données sur les apprenants afin de mieux les connaître et savoir comment ils apprennent. Il est ainsi possible de proposer des approches pédagogiques différenciées prenant en compte les besoins spécifiques des étudiants. Cette recherche se situe dans le cadre d'une étude dont l'objectif est la construction d'indicateurs pertinents pour aider les enseignants et faciliter le pilotage des formations. Les données et les connaissances disponibles peuvent être imprécises et incomplètes. La théorie des possibilités permet une bonne représentation des incertitudes inhérentes aux connaissances. Les connaissances concernant le comportement des apprenants peuvent être extraites des statistiques mais aussi provenir des enseignants. Elles sont ensuite modélisées par un réseau possibiliste. L'inférence permet le calcul des indicateurs qui peuvent ensuite être intégrés dans un système d'information pédagogique.
La théorie de l'analyse formelle de concepts est classiquement basée sur l'utilisation de l'opérateur ensembliste de Galois. La similarité formelle entre cette théorie et la théorie des possibilités suggére l'utilisation d'opérateurs possibilistes ignorés jusque-là. Ce papier propose une approche basée sur l'utilisation de compositions asymétriques de certains de ces opérateurs, ce qui permet d'enrichir la base de Duquenne-Guigues par l'obtention d'implications d'attributs à sémantique disjonctive. En outre, cette approche peut être généralisée à des contextes incomplets tout autant qu'`a des contextes exprimant une incertitude graduelle.
La théorie de décision possibiliste a été proposée il y a vingt ans et depuis lors elle a eu plusieurs extensions. En raison du manque de pouvoir décisionnel de cette théorie, plusieurs raffinements ont ensuite été proposés. Les raffinements lexicographiques sont particulièrement attrayants car ils permettent de bénéficier de l'arrière-plan de l'utilité espérée, tout en restant “qualitatif”. Cet article vise à étendre ces critères lexicographiques aux problèmes séquentiels c'est-à-dire aux processus décisionnels de Markov possibilistes. Il présente deux critères qui raffinent les utilités qualitatives possibilistes et fournit un algorithme d'induction en arrière pour le calcul des stratégies optimales lexicographiques, lorsque l'horizon est fini.
Cet article présente un algorithme de subspace clustering, dont la fonction de coût similaire aux c-moyennes floues fait apparaître une distance euclidienne pondérée et un terme de pénalité non-différentiable. Cet algorithme s'appuie sur le cadre théorique de l'optimisation par descente proximale qui permet d'établir l'expression d'un terme de mise à jour pour cette fonction de coût. Un nouvel algorithme, nommé PFSCM, est présenté, qui combine descente proximale et optimisation alternée. Les expériences réalisées sur des données artificielles montrent la pertinence de l'approche considérée.
Nous proposons une méthode nouvelle et simple pour la segmentation non supervisée d'images hyperspectrales. L'idée principale est d'encoder les variations des profils spectraux des pixels par des codes binaires. A l'aide d'une version généralisée de la distance classique de Hamming, nous proposons de partitionner l'image initiale en clusters en adaptant l'algorithme des k-modes flous à ce contexte.
Cet article décrit une approche visant à rendre plus intelligibles les réponses à une requête. Ces réponses sont tout d'abord regroupées en clusters et décrites à l'aide d'un vocabulaire flou. L'objectif principal est de trouver ce que les éléments de chaque cluster ont en commun qui les différencie de ceux des autres clusters, en exploitant les attributs qui n'apparaissent pas explicitement dans la requête.
Les Expressions Numériques Approximatives, ou ENA, sont des expressions linguistiques de la forme “environ x”, où x est un nombre. Cet article propose un modèle d'interprétation des ENA basé sur un compromis entre saillance cognitive des nombres et plage de valeurs dénotées. Contrairement aux modèles de la littérature qui représentent les ENA par des intervalles, nous proposons de les représenter par des nombres flous et d'en caractériser le support, le noyau et la 0,5-coupe. Une étude expérimentale, basée sur des données réelles collectées met en évidence les performances du modèle.
Résoudre l'hétérogénéité sémantique entre différentes sources de données est un problème central dans l'intégration et le partage d'informations dans le web des données ouvertes. Une solution peut être trouvée dans les travaux en rapport avec le liage des données et l'alignement des ontologies qui expriment la sémantique de la terminologie utilisée dans les différents jeux de données. Dans cet article, nous nous sommes intéressées aux données décrites par des vocabulaires hétérogènes qui proviennent d'une conceptualisation différente des ontologies. Nous permettons, par l'approche d'alignement proposé pour lier des données du web, de prendre en compte l'aspect incomplet de l'information. Pour cela, un système d'alignement d'instances a été réalisé en se basant sur la théorie des ensembles approximatifs. La comparaison des données se fait à travers leurs attributs même si certaines propriétés ne sont pas renseignées. Ce travail vient renforcer les travaux qui considèrent que la primitive owl:sameAs, dont la sémantique permet d'indiquer que deux objets sont identiques et qu'en termes d'inférence leurs propriétés sont substituables, n'est pas utilisé à bon escient dans le web des données ouvertes.
Cet article propose une réflexion sur la pertinence et l'intérêt des systèmes flous de type-2 dans une problématique de contrôle dans un environnement imprécis et incertain. Nous illustrons ici que cette méthodologie à base de type-2 vise à étendre, via le principe d'extension, l'expression générique d'un système flou TSK à CC (Conclusions Constantes) au cas imprécis où les poids des règles et les conclusions numériques sont considérés comme imprécis et représentés par des intervalles conventionnels. Cette approche est clairement associée à une vision imprécise du contrôle. En effet, l'analyse du fonctionnement de ces systèmes révèle que l'aspect incertain n'est aucunement pris en compte dans leur mécanisme calculatoire. Le mérite qu'on peut attribuer à cette méthodologie réside dans sa capacité à proposer une implémentation algorithmique "efficace" d'un système TSK à CC dans un environnement imprécis (au sens du principe d'extension).
Cet article présente un modèle non-linéaire simplifié pour l'étude de la position assise chez les personnes souffrant de lésion médullaire complète. Le système descripteur non-linéaire est obtenu via le calcul du Lagrangien puis transcrit sous une forme exacte de Takagi-Sugeno. Comme ce système inclut un retard variable, une loi de contrôle robuste par retour d'état est définie afin de le stabiliser. L'objectif est d'utiliser un Observateur à Entrées Inconnues afin d'estimer l'état ainsi que le signal d'entrée retardé.
In this paper, new fuzzy poverty index based methodology using a specific membership function, named as modified logistic membership function, is proposed. The modified logistic membership function is first formulated for several states of poverty and its flexibility in taking up vagueness in poverty is established by an analytical approach using aggregate operators in order to infer a logical conclusion measuring poverty. An application based on individual well-being data from Tunisian households in 2010 is presented to illustrate use of proposed concepts.
Ce papier présente une méthodologie permettant d'améliorer le contrôle de la position d'un actionneur d'embrayage. Cette méthodologie a été développée dans le cadre d'une étude menée sur le contrôle de la vitesse de glissement d'un embrayage. Le but est d'atteindre de meilleures performances en termes de temps de réponse et de précision de la vitesse de glissement de l'embrayage obtenue sur véhicule en améliorant le contrôle en position de l'actionneur. L'originalité de ce travail est de prendre en compte la caractéristique non linéaire du ressort de l'embrayage et les commutations liées aux frottements secs de la partie mécanique de l'actionneur dans la synthèse du correcteur. Pour ce faire, une approche floue est considérée au travers une représentation sous forme Takagi-Sugeno du système au détriment des approches robustes classiquement utilisées. De plus, afin de pallier au problème de mesure de courant de l'actionneur, un observateur flou Takagi- Sugeno commuté est également proposé.