La conférence LFA est la manifestation scientifique où les chercheurs viennent s'informer et débattre des avancées les plus récentes réalisées au sein de la communauté francophone, tant universitaire qu’industrielle, dans le domaine des théories de l'incertain. En particulier, LFA offre une bonne opportunité aux jeunes chercheurs du domaine de présenter leurs travaux à l’ensemble de la communauté francophone. LFA est aussi l’occasion de recueillir l’avis d’experts sur toute application impliquant la gestion et la quantification de l’incertain, la gestion des risques, ou la prise de décision en situation complexe.
Pour cette édition, qui se déroule à Poitiers, 35 communications, qui couvrent les différents domaines de la logique floue et de ses applications, ont été retenues. Ce programme est complété par 3 conférences invitées :
- la première, proposée par Didier Dubois et Henri Prade (tous deux Directeurs de Recherche au CNRS), retrace, à l'occasion du cinquantième anniversaire de l'article inaugural "Fuzzy sets" de L.A Zadeh, ce que furent les débuts du flou en France une dizaine d'années plus tard.
- la seconde conférence est présentée par Anne-Laure Jousselme du CMRE de l'OTAN à la Spezia (Italie). Elle concerne l'étude de l'impact de la qualité de l'information sur la prise de décision au travers d'un jeu.
- la dernière, proposée par Michel Grabish (Professeur à l'Université Paris I Panthéon Sorbonne), s'intitule "Les modèles GAI et les k-capacités en décision multicritère".
Conférences invitées
Un jeu pour étudier l’impact de la qualité de l’information sur la prise de décision
Anne-Laure Jousselme
Les débuts des ensembles flous en France il y a quarante ans
Didier Dubois, Henri Prade
Les modèles GAI et les k-capacités en décision multicritère
Michel Grabish
I Base de données et représentation
Explications linguistiques et graphiques de groupes de données
Grégory Smits, Olivier Pivert
Réparation efficace de requêtes floues
Olivier Pivert, Gregory Smits
Indices de confiance pour l’interrogation flexible de données imprécises
Ludovic Liétard
II Commande I
Observation des déséquilibres entre les cylindres d’un moteur à allumage commandé
Thomas Laurain, Jimmy Lauber, Reinaldo Palhares
Commande adaptative floue à modèle de référence des systèmes non linéaires avec contraintes sur l’entrée
Salim Labiod, Thierry-Marie Guerra
Synthèse de contrôleurs D-stabilisants pour les modèles flous T-S
Abdelmadjid Cherifi, Kevin Guelton, Laurent Arcese
III Théorie des Fonctions de croyance
Caractérisation d’experts dans les plate-formes de crowdsourcing
Amal Ben Rjad, Mouloud Kharoune, Zoltan Miklos, ArnaudMartin, Boutheina Ben Yaghlane
Utilisation des fonctions de croyance pour l’estimation du contenu informationnel des concepts d’une ontologie
Sébastien Harispe, Abdelhalk Imoussaten, François Trousset,Jacky Montmain
Fusion de préférences pour la détection de communautés dans les réseaux sociaux
Faten Elarbi, Tassadit Bouadi, Arnaud Martin, Boutheina Ben Yaghalane
Prédiction des liens dans les réseaux sociaux dans le cadre de la théorie des fonctions de croyance
Sabrine Mallek, Imen Boukhris, Zied Elouedi, Eric Lefevre
IV Préférence / Incertitude
Inconsistency-Based Ranking of Knowledge Bases
Said Jabbour, Badran Raddaoui, Lakdhar Sais
Axiomatisation de l’intégrale de Choquet possibiliste
Didier Dubois, Agnés Rico
Complétion analogique de préférences obéissant à une intégrale de Choquet
Marc Pirlot, Henri Prade
Multi-round Vote Elicitation for Manipulation under Candidate Uncertainty
Manel Ayadi, Nahla Ben Amor
V Applications Industrielles
Apprentissage automatique de règles floues et interprétabilité : application au classement d’événements sismiques
Laurence Cornez, Alberto Donizetti
Une architecture moderne de système expert flou pour le traitement des flux d’information
Jean-Philippe Poli, Laurence Boudet
Une nouvelle vision de l’évaluation et du guidage pour mieux situer et orienter l’apprenant dans un espace d’apprentissage
Abdelwahab Naji, Mohammed Ramdani
VI Logique - Logique Possibiliste
Agrégation des valeurs médianes et fonctions compatibles pour la comparaison
Bruno Teheux, Miguel Couceiro, Jean-Luc Marichal
La logique possibiliste avec poids symboliques : une preuve de complétude
Claudette Cayrol, Didier Dubois, Fayal Touazi
VII Décision Multicritères
Axiomatisation des intégrales de Sugeno k-maxitives
Miguel Couceiro, Quentin Brabant
Entre volonté et capacité : comment définir des objectifs atteignables
Diadé Sow, Abdelhak Imoussaten, Pierre Couturier, Jacky Montmain
Raffinement de la décision séquentielle possibiliste : de l’utilité qualitative optimiste à l’utilité espérée
Nahla Ben Amor, Zeineb Elkhalfi, Helene Fargier, Regis Sabbadin
VIII Commande II
Approche LMI pour la Commande Robuste H∞ et l’analyse de la stabilisation pour les modèles flous incertains de T-S à retard
Bourahala Faial, Khaber Farid
La logique floue et le filtrage de Kalman étendu pour la localisation de mobile du réseau sans fil
Mourad Oussalah, Naima Bouzera
Estimation de couple moteur et de couple embrayage basée sur un observateur flou discrétisé dans le domaine angulaire
Rémi Losero, Jimmy Lauber, Thierry-Marie Guerra
IX Incertitude et aspects temporels
Fuzzy-PDEVS : vers une méthode conceptuelle pour la gestion de conflits
Paul-Antoine Bisgambiglia, Romain Franceschini, Damien Foures, Eric Innocenti
Une approche crédibiliste pour la gestion de l’incertitude temporelle
Nessrine El Hadj Salem, Allel Hadjali, Boutheina Ben Yaghlane, Aymen Gammoudi
Vers des relations temporelles tolérantes
Aymen Gammoudi, Allel Hadjali, Boutheina Ben Yaghlane
X Logique Possibiliste étendue
Conditionnement en logique possibiliste à intervalles
Salem Benferhat, Amélie Levray, Karim Tabia
Pondération logique en logique possibiliste. Une discussion
Henri Prade
La logique possibiliste multi-agent : une introduction
Asma Belhadi, Didier Dubois, Faiza Khellaf-Hamed, Henri Prade
XI Motifs graduels dans les bases de données
Analyse des relations et des dynamiques de corpus de textes littéraires par extraction de motifs graduels
Amal Oudni, Mohamed Amine Boukhaled, Gauvain Bourgne
Extraction de motifs graduels émergents
Anne Laurent, Marie-Jeanne Lesot, Maria Rifqi
XII Image
Quelques liens entre la morphologie mathématique et l’analyse formelle de concepts
Jamal Atif, Isabelle Bloch, Céline Hudelot
Variante imprécise de la corrélation de rang de kendall appliquée au cas de données quantifiées
Hugo Saulnier, Ines Couso, Olivier Strauss
A l'occasion du cinquantième anniversaire de l'article inaugural “Fuzzy sets” de L. A. Zadeh, on évoque brièvement (références à l'appui) ce que furent les débuts du flou en France une dizaine d'années plus tard, en rappelant le rôle de pionnier d'Arnold Kaufmann et de quelques autres.
D'un côté, les méthodes d'apprentissage non supervisé permettent d'identifier automatiquement la structure d'un jeu de données, et d'un autre côté, les partitions floues fournissent un formalisme pour la représentation d'un vocabulaire personnalisé. Pour simplifier le processus d'extraction de connaissances, nous proposons d'expliquer la structure par groupes construite automatiquement à partir des données en utilisant des termes linguistiques personnalisés.
Les systèmes coopératifs visent notamment à éviter de retourner à l'utilisateur “il n'y a pas de réponse” lorsqu'une requête échoue, en cherchant plutôt à fournir les raisons de l'échec, sous la forme par exemple de sous-requêtes minimales à résultat vide (Minimal Failing Subqueries, MFS en abrégé), et à construire des requêtes alternatives à résultat non vide (maXimal Succeeding Subqueries, XSS en abrégé), aussi proches que possibles de la requête initiale. Dans le contexte de l'interrogation floue de bases de données, nous proposons une méthode efficace pour déterminer les MFS et les XSS graduelles d'une requête, méthode qui s'appuie sur un résumé, calculé dynamiquement, d'une partie de la base.
Cet article se situe dans le contexte de l'interrogation à préférence (interrogation flexible) de données imprécises. Nous considérons le problème atomique de la satisfaction d'une donnée imprécise (définie par une distribution de possibilité) à un prédicat vague (défini par un ensemble flou). Deux indices pour estimer la satisfaction sont alors envisageables, la nécessité et la possibilité d'un événement flou. Cet article montre que ces deux mesures sont parfois insuffisantes et propose de nouveaux indices pour compléter ces deux informations (ainsi que leurs propriétés). Nous montrons également que ces indices permettent de définir des requêtes (pour des bases de données par exemple) avec calibrage qualitatif ainsi qu'un nouveau type de calibrage concernant la certitude (calibrage certitatif).
Ce papier a pour objectif de présenter une méthodologie pour l'observation de systèmes périodiques non-linéaires, en utilisant la célèbre représentation de Takagi-Sugeno. Le but de cette étude est d'appliquer les outils périodiques non-linéaires discrets dans un contexte de contrôle du régime de ralenti d'un moteur à allumage commandé. En utilisant des observateurs de même nature (donc, des observateurs discrets TS périodiques), une détection des défauts de modélisation de chaque cylindre peut être réalisée dans le but d'ajuster la loi de commande. En utilisant un modèle hybride dynamique, des résultats de simulation permettent de prouver l'efficacité de la méthodologie proposée.
Ce travail propose une approche de commande adaptative indirecte floue à modèle de référence pour une classe de systèmes non linéaires incertains soumis à une saturation de position suivie d'une saturation de vitesse. Cette approche utilise un modèle de référence bouclé et propose une loi de commande avec une loi d'adaptation permettant d'éviter le problème d'instabilité qui peut être causée par la présence des contraintes sur l'entrée de commande. La loi d'adaptation proposée est sélectionnée pour minimiser conjointement l'erreur de poursuite modifiée et l'erreur de modélisation entre les fonctions réelles et les systèmes flous utilisés. Des résultats de simulation sont présentés pour montrer la faisabilité de l'approche proposée.
Le “Crowdsourcing” représente aujourd'hui une méthode de travail très populaire au cœur de l'économie d'internet. Cette méthode consiste à recourir aux ressources de la foule pour accomplir des tâches, pour collecter des informations et des connaissances sous forme d'une sous-traitance vers un grand nombre de personnes. La qualité et le niveau d'expertise de ces derniers influencent largement l'efficacité des plates-formes de crowdsourcing. Ceci pose un nouveau défi de contrôle de qualité des participants et d'identifier les experts. Plusieurs méthodes ont été proposées dans ce contexte, mais les problèmes d'imperfection des données souvent peu prises en compte influencent pourtant les résultats. Pour ce faire et afin de mieux identifier les experts nous proposons une nouvelle méthode de caractérisation des experts fondée sur la théorie des fonctions de croyance. Nous validons nos techniques par des expérimentations sur des données synthétiques.
Les ontologies sont le support de nombreuses applications basées sur l'exploitation de connaissances expertes. Elles sont utilisées en particulier pour estimer le contenu informationnel (IC) des concepts clés d'un domaine : une notion fondamentale dont dépendent diverses analyses basées sur les ontologies, e.g. les mesures sémantiques. Cet article propose de nouveaux modèles d'IC basés sur la théorie des fonctions de croyance. Ces modèles ont pour objet de remédier à une limitation des modèles classiques qui ne tiennent pas compte de l'Hypothèse d'Inférence Inductive (HII) pourtant intuitivement utilisée par l'homme. Dans les modèles classiques d'IC , les occurrences d'un concept (e.g. Maths) ont une influence sur l'IC des concepts plus généraux subsumant le concept (e.g. Sciences) ; en revanche, elles n'affectent en rien l'IC d'un concept subsumé (e.g. Algebra). C'est ce comportement que se propose de prendre en compte l'HII. Les propriétés attendues de notre modèle d' IC donnent les contraintes mathématiques à respecter lors de sa construction. Des évaluations empiriques viennent vérifier qu'il a également un comportement des plus satisfaisants pour les cas d'usage les plus classiques d'IC.
Cet article aborde la problématique de la fusion de préférences dans le contexte des réseaux sociaux. L'objectif de ce travail est de déterminer les préférences “collectives” d'un groupe d'utilisateurs appartenant à une communauté donnée à partir des préférences individuelles de chacun d'entre eux. En particulier, nous nous intéressons ici à la représentation des préférences des individus en tenant compte de leurs incertitudes. L'incertitude représentant une source de complexité dans la prise de décision, nous proposons une méthode efficace de fusion de préférences fondée sur la théorie des fonctions de croyance. Cette méthode permet de qualifier des communautés d'utilisateurs par l'analyse des préférences collectives obtenues à l'issue de l'étape de fusion. Plus précisément, elle permet la caractérisation des communautés partageant les mêmes préférences collectives. Des expérimentations sur des jeux de données générées soulignent l'intérêt de la solution proposée.
Le problème de prédiction de liens constitue un domaine de recherche important traité dans l'analyse des réseaux sociaux. Il consiste à deviner les liens qui apparaîtront dans le réseau en se basant sur son état actuel. Plusieurs méthodes ont été proposées pour faire face à ce problème mais la plupart d'entre elles le traitent dans un cadre certain. En effet, les données des réseaux sociaux sont souvent incomplètes et bruitées, par conséquent il est nécessaire de gérer l'incertitude lors de la prédiction. Nous examinons dans ce papier, le problème de prédiction de liens dans un cadre incertain en utilisant la théorie des fonctions de croyance. D'abord, nous présentons un nouveau modèle graphique pour les réseaux sociaux qui encapsule les incertitudes dans la structure des liens. Ensuite, nous proposons une nouvelle approche pour la prédiction des futurs liens via la fusion d'information des nœuds voisins.
L'incohérence est une notion habituellement indésirable dans de nombreux types de données et de connaissances. Estimer à quel point un ensemble d'informations est conflictuel est potentiellement utile afin d'identifier quelles parties des données sont affectées par le conflit. Différentes approches ont émergé ces dernières années pour quantifier l'incohérence. Cependant, l'un des principaux problèmes réside dans la difficulté de comparer leurs qualités. En effet, une base de connaissances hautement contradictoire selon une mesure d'incohérence peut être vu comme moins conflictuelle en utilisant une autre. Dans cet article, nous proposons un nouveau cadre formel permettant de partitionner les bases de connaissances en une séquence d'informations, selon une famille de mesures d'incohérence, tel que le premier élément de la partition correspond à la base la plus incohérente. Ensuite, nous discutons la façon la plus fine pour ordonner des bases contradictoires en utilisant une combinaison originale de mesures existantes. Enfin, nous étendons notre cadre pour définir des mesures d'incohérence à partir des approches existantes.
On propose une caractérisation de l'intégrale de Choquet discrète par rapport à une mesure de possibilité ou de nécessité. On montre qu'il suffit pour cela d'ajouter à l'axiomatisation de l'intégrale de Choquet par rapport à une capacité un axiome de pessimisme ou un axiome d'optimisme, et que cela étend les classes de fonctions dans lesquelles l'intégrale de Choquet est additive. Le critère pessimiste (resp. optimiste) obtenu est une généralisation du critère maximin (resp maximax) de Wald qui opère une moyenne sur les coupes d'une distribution de possibilité. On propose aussi une axiomatisation en termes de relations de préférence entre des actes dans le cadre de la décision dans l'incertain.
On met en évidence une compatibilité remarquable entre la caractérisation axiomatique en terme d'échanges comonotones des intégrales de Choquet et la notion formelle de proportion analogique. Cette dernière notion est à la base d'un mécanisme d'extrapolation, qui a été testé avec succès en classification. Nous suggérons une approche similaire pour l'apprentissage de préférences relatives, si les préférences sont représentables par une intégrale de Choquet.
Manipulation becomes harder when the manipulators are uncertain about the preferences of sincere voters. Topk elicitation may communicate information about sincere voters' votes to a manipulator, allowing him to vote strategically. In this paper, a multi-round elicitation process, of sincere voters' preferences, is derived that yields to an optimal manipulation with minimal information elicited. The main idea is to study the connection between the amount of information elicited from sincere voters and the probability of manipulation. Through a deep experimental study, this paper answers the question: How many candidates, per sincere voter, are needed to be known for an optimal manipulation? Probabilistic models such as IC and IC-SP are used to complete preference profiles.
Dans cet article, nous nous intéresserons à rendre les règles d'un système d'inférence floue plus intelligibles lorsqu'elles sont apprises de manière automatique par des algorithmes de clustering. Ces algorithmes ont l'avantage de proposer des résultats intéressants en terme de performance mais l'écriture en langage naturel des règles qui en découlent est difficile (recouvrement des fonctions d'appartenance). Pour résoudre ce problème, nous ferons l'analyse des différentes mesures de similarité entre deux fonctions de densité proposées dans la littérature afin de proposer finalement des mécanismes de fusion applicables aux fonctions d'appartenance rendant ainsi les partitions plus interprétables. Nous exposerons les résultats obtenus lors de la classification d'événements sismiques par mélanges gaussiens.
L'émergence des objets connectés et de l'internet des objets nécessite de proposer des traitements adaptés aux flux d'information. Les systèmes experts flous présentent de bonnes propriétés pour ce genre de données puisqu'ils permettent naturellement de prendre en compte l'imprécision et l'incertitude des données mais également des connaissances que l'on en a. Cependant, les systèmes experts flous ont été conçus pour fonctionner de manière synchrone ce qui ne leur permet pas d'être efficaces sur des flux d'information abondants. Nous proposons donc une architecture modulaire et une représentation adaptée de la base de règles afin de traiter efficacement les flux d'information avec un système expert flou.
Cet article consiste, en premier lieu, à présenter un nouveau modèle d'évaluation basé sur la logique floue. Ce modèle d'évaluation ne permet pas seulement de mesurer le niveau de connaissances de l'apprenant et de l'assister à s'évaluer, mais aussi d'assurer une interactivité davantage et d'élargir l'interopérabilité des tests qui en découlent. En second lieu, il consiste à présenter une nouvelle méthode de guidage pour aider les apprenants à trouver les activités d'apprentissage qui répondent convenablement à leurs attentes et leur permettre d'éviter les liens inappropriés.
Nous caractérisons les fonctions d'agrégation qui préservent la valeur médiane dans le cas où l'opération médiane est conservative. Nous commençons par rappeler les notions d'algèbre et de demi-treillis médian en les introduisant à partir de la notion de valeur médiane sur les réels. Nous obtenons également une double caractérisation des algèbres médianes conservatives en termes de sous-structures interdites et de représentations par des chaînes.
On considère une variante de la logique possibiliste, déjà proposée par Benferhat et coll., où les poids attachés aux formules sont remplacés par des variables symboliques à valeur sur une échelle totalement ordonnée. On suppose qu'on ne dispose que de contraintes de domination stricte entre ces poids inconnus. Dans ce cas, on peut étendre la sémantique et l'axiomatisation de la logique possibiliste, mais sa complétude nécessite une nouvelle preuve qui est décrite ici. La mise en œuvre de cette logique peut exploiter des techniques de recherche de sousbases maximales consistantes et de raisonnement abductif.
Nous considérons la variante latticielle de la notion de k-additivité, appelée k-maxitivité, et nous présentons une axiomatisation de la classe des intégrales de Sugeno kmaxitives définies sur des treillis distributifs. Pour cela, nous caractérisons les polynômes latticiels de degré borné à k et nous utilisons le fait que les intégrales de Sugeno correspondent à des polynômes latticiels idempotents. Nous discutons également des avantages potentiels de cette notion paramétrisée ainsi quelques problèmes de recherche qui restent ouverts.
Concevoir ou améliorer un produit ou un système industriel nécessite la prise en compte de nombreuses fonctionnalités qui doivent satisfaire un grand nombre d'objectifs/critères interdépendants parfois difficiles à atteindre simultanément. L'interaction entre les critères apparait être une notion centrale et pourtant ambiguë dans un projet de conception ou d'amélioration où l'influence des paramètres sur la performance espérée est nécessairement imparfaitement connue. Deux points de vue sont rencontrés dans la littérature. Les approches relevant de l'aide à la décision multicritère qui s'attachent à modéliser les préférences des décideurs manipulent des interactions préférentielles. Les approches relevant du génie industriel ou du génie logiciel accordent une place prépondérante aux contraintes fonctionnelles entre les critères qui semblent alors régir la réalisabilité conjointe d'un ensemble d'objectifs. Les deux types d'interaction sont ainsi rarement gérés conjointement dans un projet d'amélioration. Cet article tente de proposer un cadre unificateur autour de la notion d'interaction en construisant un consensus entre volonté de faire et capacité à faire, inspiré de méthodes d'optimisation de type descente du gradient.
Dans [4], il a été démontré qu'on peut relier la théorie de l'utilité espérée et celle des utilités qualitatives possibilistes par une relation de raffinement. Cet article vise l'extension de ces travaux au cas de la décision séquentielle en proposant une fonction de transformation χ qui permet de raffiner l'utilité possibiliste optimiste par l'utilité espérée, donc de faire correspondre à tout arbre de décision possibiliste un arbre de décision stochastique. Il est donc possible en décision séquentielle dans l'incertain de construire des modèles stochastiques induisant un ordre sur les politiques qui raffine l'ordre induit sur les mêmes politiques dans le modèle possibiliste original.
Cet article traite le problème de l'analyse de la stabilité et la commande robuste H∞ pour les systèmes non linéaires, incertains et perturbés, décrits par les modèles flous de type Tagaki Sugeno (T-S) à retard variable en état et en entrée, où les incertitudes sont impliquées dans les matrices d'état et d'entrée. D'abord, nous rappelons les modèles flous incertains de T-S à retard et nous présentons le critère de stabilisation à retard-dépendant. Puis, nous développons de nouvelles conditions de stabilisation de modèles incertains de T-S à retard et nous les donnons sous formes d'inégalités matricielles linéaires (LMIs), sur la base de la théorie de Lyapunov-Krasoviskii, en l'occurrence, la possibilité de l'exploitation numérique des résultats. Ensuite, nous concevons un contrôleur robuste en boucle fermée, selon un critère H∞, afin de stabiliser le modèle flou incertain de T-S et d'obtenir un niveau souhaitable d'atténuation des perturbations. Enfin, nous traitons un exemple numérique d'un système non-linéaire, en vue de montrer l'efficacité de la méthode proposée.
Ce papier présente une combinaison de la logique floue et le filtre de Kalman étendu pour le suivi d'une station mobile dans un réseau sans fil. Plusieurs techniques de localisation mobiles ont été développées avec des degrés de précision et complexité variables. La technique classique d'utilisation du filtre de Kalman étendu (EKF) souffre des problèmes liés à la divergence du filtre et l'imperfection du modèle. Pour ce faire, un système d'inférence floue à base du modèle de Takagi-Sugeno d'ordre zéro utilisant l'innovation et sa variance-covariance comme entrées principales a été proposé. L'approche s'inspire aussi par le filtre de Kalman fédéré pour élaborer le nouveau estimateur flou. Les performances du filtre de Kalman étendu flou (FEKF) ont été comparées avec le filtre de Kalman étendu et contrôleur flou (EC). Les résultats témoignent de la faisabilité de notre approche et de la qualité de son estimation.
L'estimation du couple moteur et du couple embrayage présente un grand intérêt pour beaucoup d'applications de l'industrie automobile telles que les véhicules hybrides, les transmissions automatisées, le contrôle moteur, etc... Une méthode d'estimation du couple moteur et du couple embrayage basée sur un observateur flou discrétisé dans le domaine angulaire utilisant un calcul de torsion angulaire est proposée dans cet article. Cette méthode est appliquée au double volant amortisseur ; un dispositif de filtration des acyclismes moteur. La méthode proposée a permis d'obtenir de bon résultats expérimentaux d'estimation de couple moteur instantané et de couple embrayage.
Dans cet article, nous démontrons qu'une ambiguïté de conception lors de la réalisation d'un modèle PDEVS peut avoir un impact important sur les résultats de simulation. Nous proposons une solution, nommée Fuzzy-PDEVS, basée sur un coefficient de confiance afin d'évaluer le comportement du modèle et d'aider le modélisateur dans sa tâche.
L'article présente une approche fondée sur les fonctions de croyances pour représenter l'incertitude des relations temporelles dans le cadre de l'algèbre des points. Nous montrons comment le concept des fonctions de masse permet de modéliser la connaissance incertaine sur les relations possibles entre instants. L'incertitude peut aussi être exprimée au moyen d'un vecteur de mesures de croyance. Un ensemble de règles permettant de raisonner sur des relations temporelles crédibilistes est aussi établi.
Les relations temporelles d'Allen forment un formalisme bien connu et utilisé pour la modélisation et la manipulation des données temporelles. Ce papier discute une nouvelle idée permettant d'introduire une certaine souplesse dans la définition des relations entre deux intervalles de temps flous. Le concept clé de cette approche est une relation de tolérance floue convenablement modélisée. Des relations temporelles d'Allen tolérantes sont définies au moyen d'opérations de dilatation et d'érosion appliquées sur les intervalles de temps initiaux. Cette extension des relations d'Allen est étudiée dans un but d'interrogation de bases de données temporelles à l'aide du language TSQLf introduit dans un précédent travail.
La logique possibiliste à intervalles est un formalisme flexible étendant la logique possibiliste standard tel que chaque expression logique est associée à un sousintervalle de [0, 1]. Ce papier se concentre sur le problème important que représente le conditionnement dans les cadres possibilistes à intervalles. La première partie de ce papier propose un ensemble de propriétés naturelles à satisfaire. Nous donnons ensuite une définition naturelle et sûre du conditionnement dans les distributions possibilistes à intervalles. Elle consiste à appliquer le conditionnement standard sur l'ensemble de toutes les distributions compatibles associées. La seconde partie de ce papier fournit l'équivalent syntaxique du calcul du conditionnement quand les distributions sont encodées de manière compacte à l'aide de bases de connaissances possibilistes à intervalles. Nous montrons que le conditionnement à intervalles a la même complexité que le conditionnement de bases possibilistes standards.
La logique possibiliste standard associe une formule logique avec un niveau de certitude (ou de priorité) sur une échelle totalement ordonnée. Il est cependant possible de faire migrer des littéraux dans le poids pour exprimer par exemple que “q est certain pourvu que p soit vrai”. En fait, de telles pondérations semblent aussi pouvoir être utiles dans différents registres, comme pour décrire des arguments, ou des ensembles d'agents. Cette note discute ces possibilités. Elle aborde également la question de la modélisation de la méconnaissance (“unawareness”).
La logique possibiliste multi-agent est une extension de la logique possibiliste. Elle manipule des formules de la forme (a, α/A) où a est une formule propositionnelle, α ∈ [0, 1], et A est un sous-ensemble d'agents. Une telle formule permet d'exprimer qu'au moins tous les agents qui sont dans l'ensemble A croient que la formule a est vraie au moins avec un degré de certitude α. Cet article présente la logique possibiliste multi-agent, établit sa correction et sa complétude, et suggère dans sa conclusion des applications potentielles.
La stylistique computationnelle permet de déterminer l'ensemble des traits caractéristiques formels d'une œuvre littéraire. Cet article propose une approche de stylistique computationnelle qui se focalise sur les relations et les dynamiques entre les textes d'un corpus. Elle permet de mettre en évidence des corrélations de covariation globales et locales entre les fréquences d'utilisation des catégories syntaxiques que nous illustrons sur une collection de textes écrits par Balzac. Pour ceci, nous proposons un outil d'analyse littéraire basé sur les méthodes de résumés linguistiques sous forme de motifs graduels et de motifs graduels caractérisés par des intervalles d'intérêt.
L'extraction de motifs émergents a pour objectif de souligner les caractéristiques distinctives d'une base de données par opposition à une base de référence, afin de mettre en évidence leurs différences. Cet article considère le cas particulier des motifs graduels émergents et vise, donc, à extraire des co-variations d'attributs discriminantes. Il discute les spécificités des motifs graduels nécessitant le développement d'une nouvelle méthode et propose la transposition adaptée d'un algorithme efficace basé sur la notion de bordure, en justifiant son applicabilité au cas des motifs graduels. Il illustre les résultats obtenus sur des données de l'UCI.
Dans cet article, nous proposons d'étendre les liens déjà établis entre les opérateurs de dérivation utilisés en analyse formelle de concepts et des opérateurs de morphologie mathématique à l'analyse formelle de concepts flous. De plus, nous proposons d'exploiter la morphologie mathématique pour naviguer dans le treillis de concepts flous et raisonner sur ceux-ci. Cet article propose à la fois une discussion générale ainsi que de nouveaux résultats sur ces liens et leur intérêt potentiel.
La corrélation de rang de Kendall, aussi appelée coefficient de Kendall ou plus simplement τ, est une méthode efficace et robuste pour évaluer l'existence d'une relation monotone entre deux quantités. Toutefois si on l'applique à des données quantifiées, l'abondance d'égalités dans les données peut amener à des interprétations hasardeuses. Dans cet article nous proposons d'utiliser un τ imprécis, c'est à dire défini comme l'intervalle contenant toutes les valeurs de τ calculées sur l'ensemble des valeurs possibles avant quantification. Une preuve de l'exactitude des bornes sera proposée, ainsi qu'une illustration expérimentale.