Les Rencontres Francophones sur la Logique Floue et ses Applications (LFA) constituent la manifestation scientifique annuelle où chercheurs et industriels se réunissent afin de faire le point sur les développements récents des théories de l’imprécis et de l’incertain. Celles-ci comprennent, par exemple, les sous-ensembles flous, les possibilités, les fonctions de croyance, les probabilités imprécises, les ensembles approximatifs et aléatoires ou des logiques non classiques. Le large éventail de domaines couverts va de la commande floue, domaine historique de l’application des sous-ensembles flous, à l’apprentissage automatique en passant par l’aide à la décision, le raisonnement, la fusion d’informations ou encore les bases de données, pour n’en citer que quelques-uns.
En complément des 22 articles retenus, une conférencière invitée et deux conférenciers invités retracent les principales avancées et exposent les enjeux actuels de trois domaines de recherche où la gestion des imprécisions et des incertitudes est cruciale : l'extraction de connaissances, l'aide à la décision et le contrôle automatique.
La première conférence est donnée par Bernadette Bouchon-Meunier, directrice de recherche émérite au Laboratoire Informatique de Paris, Sorbonne Université, et concerne l'apport de la théorie des sous-ensembles flous pour l'explicabilité des méthodes d'intelligence artificielle.
La deuxième conférence, proposée par Jérôme Lang, directeur de recherche CNRS-Université Paris-Dauphine, porte sur la prise de décision collective.
Enfin il nous a semblé important de redorer le blason de la thématique qui a fait connaître le flou au grand public, à savoir la commande floue. Kévin Guelton, professeur à l’université de Reims, nous en présentera les dernières avancées.
Preface
Comités
CONFÉRENCES INVITÉES
– La contribution du flou à l’explicabilite de l’intelligence artificielle Bernadette Bouchon-Meunier
– Du flou dans les décisions collectives Jérôme Lang
– Modèles flous de type Takagi-Sugeno : des origines à la problématique actuelle de leur commande à base de signaux échantillonnés Kévin Guelton
FOUILLE DE DONNÉES ET BASES DE DONNÉES
– Caractérisation d’exceptions dans les résumés flous extraits de graphes de propriétés Arnaud Castelltort, Anne Laurent
– Croisements de données de l’Internet des Objets pour l’extraction de motifs graduels temporels flous Dickson Owuor, Anne Laurent, Joseph Onderi Orero
– Explication linguistique des propriétés structurelles de données régulières et irrégulières Amit Shukla, Grégory Smits, Marie-Jeanne Lesot, Olivier Pivert
– Modélisation de concepts par intégrales de Choquet Grégory Smits, Ron Yager, Marie-Jeanne Lesot, Olivier Pivert
TRAITEMENT D’IMAGES
– On linguistic descriptions of image content Isabelle Bloch
– Transfert de couleur : vers une approche intervalliste Olivier Strauss, William Puech
THÉORIE DES POSSIBILITÉS
– Ordinal Polymatrix Games with Incomplete Information Nahla Ben Amor, Hélène Fargier, Régis Sabbadin, Meriem Trabelsi
– Approches logiques ou ensemblistes de la classification Didier Dubois, Henri Prade
– Construction de distributions de possibilité bivariées à partir de distributions marginales connues Charles Lesniewska, Gilles Mauris, Abdourrahmane Atto
OPTIMISATION, COMPLEXITÉ
– Apprentissage de rangements prudent avec satisfaction de contraintes Yonatan Carlos Carranza Alarcon, Soundouss Messoudi, Sébastien Destercke
– Stability Analysis of TS Systems via Reduced-Complexity Affine Representation Amine Dehak, Anh-Tu Nguyen, Antoine Dequidt, Laurent Vermeiren, Michel Dambrine
PRÉFÉRENCES ET MODÉLISATION DE CONNAISSANCES
– Inferer a partir d’un modele de Plackett-Luce imprecis : application au rangement d’etiquettes Loïc Adam, Arthur Van Camp, Sébastien Destercke, Benjamin Quost
– Le tesseract de l’intégrale de Sugeno Didier Dubois, Henri Prade, Agnès Rico
– Elections équitables envers des communautés de votants Jérôme Lang, Agnès Rico
– Interprétabilité des entropies d’ensembles flous intuitionnistes ou définis par intervalles Christophe Marsala and Bernadette Bouchon-Meunier
– Formalisation du concept d’assortiment idéal dans la grande distribution Jocelyn Poncelet, Pierre-Antoine Jean, Michel Vasquez, Jacky Montmain
APPRENTISSAGE, CLASSIFICATION
– Imputation credibiliste pour la prediction de charge interne de joueurs de football Rayane Elimam, Nicolas Sutton-Charani, Jacky Montmain, Stéphane Perrey
– Subspace clustering et typicite d’attributs : une étude prospective Marie-Jeanne Lesot, Adrien Revault d’Allonnes
– Operateurs de Derivation Modaux pour l’Analyse Logique de Concepts Mohammed Sadou, Yassine Djouadi, Hadjali Allel
FONCTIONS DE CROYANCE
– Traitement du problème d’optimisation de mélange dans le cas de données incertaines via les fonctions de croyance Lucie Jacquin, Abdelhak Imoussaten, Sébastien Destercke
– Traitement évidentiel d’exemples atypiques Marie-Helene Masson, Benjamin Quost, Sébastien Destercke
– Toward a generalization of belief functions approximation Tekwa Tedjini, Sohaib Afifi, Frédéric Pichon, Eric Lefevre
INDEX DES AUTEURS
Après avoir introduit et développé le concept de sous-ensemble flou en 1965, Lotfi A. Zadeh[3] a rapidement proposé de représenter différentes formes de langage naturel, en particulier par l'intermédiaire de notions telles que la granulation floue de l'information, les contraintes floues, et bien sûr le concept de variable linguistique, défini comme une variable dont les valeurs sont des mots ou des énoncés d'un langage naturel ou artificiel. C'est avec l'introduction du concept de Computing With Words [4], en 1996, qu'il a proposé d'utiliser des mots et non plus des nombres pour le calcul et le raisonnement. Indépendamment de cet environnement, la DARPA a lancé le mouvement de l'Explainable Artificial Intelligence vingt ans plus tard, en 2016. Il prône des modèles d'intelligence artificielle, certes efficaces en termes d'apprentissage, mais explicables, interactifs et facilement appréhendables par l'utilisateur. La capacité des systèmes intelligents de comprendre le langage naturel, au moins sous une forme simple, et d'interagir avec les utilisateurs par l'intermédiaire de mots, est évidemment une composante de leur explicabilité. L'utilisation d'une représentation floue des connaissances dans les systèmes intelligents apporte diverses solutions pour les rendre compréhensibles et interprétables. Nous passerons en revue diverses facettes d'une telle représentation , qui contribuent à construire des systèmes intelligents répondant aux attentes de l'Explainable Artificial Intelligence, et qui vont au-delà des systèmes à base de règles flous classiques.
La théorie du choix social vise à formaliser et à mettre en œuvre des mécanismes de décision collective. Certaines de ses sous-branches font l'objet d'une attention spécifique, notamment le vote (`a vainqueur unique ou `a vainqueurs multiples), le partage équitable de ressources ou de tâches, et l'appariement (ou plus généralement la partition d'individus en groupes). Les différents mécanismes se scindent en trois classes, selon la nature des données en entrée : ordinales (chaque individu spécifie une relation d'ordre sur les candidats, les ensemble de ressources, les agents avec lesquels il peut être apparié), cardinales (chaque individu spécifie une fonction d'utilité sur les candidats, etc.), ou, à l'intersection de ces deux modèles, dichotomiques. Les préférences floues, généralisant préférences ordinales, cardinales et (a fortiori) dichotomiques, permettent donc d'unifier les trois classes correspondantes de mécanismes de décision collective. Si les préférences floues ont déjà été l'objet d'étude en choix social, elles sont tombées dans un oubli relatif depuis une vingtaine d'années ; or, depuis lors, le choix social a fait des avancées considérables, et il serait judicieux qu'elles reviennent sur le devant de la scène. Je commencerai par faire un exposé sur ce qui a été déjà fait jusqu'à présent (en m'appuyant notamment sur un chapitre de synthèse de Barrett et Salles), puis je parlerai de quelques directions actuelles, structurées en trois parties, selon que les relations floues sont utilisées en input, en output, ou en données intermédiaires.
Au cours de cette conférence invitée, nous discuterons de la commande des modèles flous de type Takagi-Sugeno (T-S). La présentation sera divisée en trois parties. La première sera consacrée à la genèse de ce type d'approches (depuis l'introduction des modèles T-S en 1985, jusqu'à la fin des années 1990). Nous aborderons ensuite une période que je considère comme étant le boom des approches T-S (depuis la fin des années 1990, jusqu'à nos jours) avec la multiplication des travaux dans ce domaine, notamment la réduction du conservatisme des conditions de synthèse. Enfin, la troisième partie sera consacrée à une problématique qui m'intéresse particulièrement aujourd'hui : la synthèse de lois de commande à base de signaux échantillonnées pour les systèmes non linéaires.
Les résumés linguistiques flous permettent de décrire des caractéristiques des données. Ils peuvent être de plusieurs natures, à la fois en raison des protoformes différents, et en raison des formats des données sources. Il a par exemple été proposé dans des travaux précédents d'extraire des résumés flous à partir de graphes de propriétés. Ces bases de données sont structurées sous la forme de graphes dont les nœuds et les arcs sont porteurs de propriétés sous le format (clé ;valeur). On peut alors retrouver des résumés flous du type “la plupart des étudiants habitent dans un petit appartement”. Dans cet article, nous explorons la recherche et la caractérisation des exceptions à ces résumés, par exemple pour retrouver des résumés étendus du type “la plupart des jeunes habitent dans un petit appartement, sauf quand ils ont un haut salaire”. Pour ce faire, nous nous appuyons sur Cypherf qui est le langage de requêtes floues sur les graphes de propriété des bases Neo4j (extension de Cypher) et sur le DSL (Domain Specific Language) Fuzzy4S permettant d'exprimer l'ensemble des fonctions nécessaires.
Les objets connectés de l'Internet des objets (IoT) prolifèrent dans tous les domaines, menant à de nombreuses séries temporelles. Dans cet article, nous proposons une approche de croisement de ces sources (par exemple au sein d'un lac de données) pour en comprendre la dynamique temporelle. Dans ce but, nous visons à extraire des motifs temporels flous. Notre approche est conçue pour être parallélisée, et nous mesurons quelques performances de calcul pour en démontrer la faisabilité sur des données réelles.
Afin d'aider un utilisateur à appréhender aisément le contenu d'un ensemble de données, cet article propose de fournir une riche description linguistique, qui explique à la fois les caractéristiques majoritaires et les irrégularités présentes dans les données. La méthode proposée repose sur (i) une nouvelle mesure de similarité contextuelle, inférée d'une forêt d'isolation construite automatiquement à partir des données, (ii) l'identification de la structure des données, `a la fois en termes de régularités et d'anomalies, qui exploite cette mesure de similarité et (iii) la génération d'une explication linguistique interprétable de la structure identifiée, incluant des descriptions des relations entre irrégularités et régularités.
L'utilisation de concepts imprécis, subjectifs et contextuels, comme par ex. celui d'étudiant prometteur, permet d'enrichir l'accès aux données, mais la définition de ces concepts est fastidieuse pour un utilisateur. Cet article propose une stratégie, appelée CHOCOLATE, qui requiert uniquement quelques exemples représentatifs du concept, fournis par l'utilisateur, et qui en infère une fonction d'appartenance. CHOCOLATE met en œuvre une intégrale de Choquet pour agréger la pertinence de valeurs observées dans les exemples représentatifs ainsi que la représentativité d'ensembles de ces valeurs. L'approche proposée est en mesure de capturer à la fois les propriétés partagées par la plupart des exemples représentatifs fournis par l'utilisateur et les propriétés spécifiques présentes dans des exemples représentatifs isolés.
Un problème bien connu dans le domaine de l'image et de la vision par ordinateur est le fossé sémantique entre les informations numériques extraites des images et les concepts exprimés de manière symbolique. En raison de la nature des images et de la difficulté d'en extraire des caractéristiques pertinentes, le langage joue un rôle important. D'une part, les descriptions linguistiques des connaissances sur les images et les domaines peuvent être traduites en modèles et algorithmes formels pour guider la recherche d'images, la reconnaissance, la navigation et l'interprétation. D'autre part, la génération automatique de descriptions linguistiques des données est un domaine de recherche qui, bien que récent, évolue rapidement. Par exemple, la question de fournir, à partir de résultats de traitement d'images, une description de haut niveau dans le langage des experts du domaine n'a pas encore ´et´e beaucoup abordée, et peut s'inspirer des méthodes de résumé linguistique. L'objectif de cet article est de fournir un aperçu de l'état de l'art dans ce domaine, en montrant l'apport des ensembles flous.
Le transfert de couleur est une approche très utilisée dans les logiciels de retouche de photos pour de nombreuses applications comme la réalisation de mosaïques d'images – e.g. création d'images panoramiques ou la recherche d'images en fonction du contenu. Cela consiste à imposer à une image une distribution particulière des couleurs pour se rapprocher de celle d'une autre image, afin de masquer son contenu informatif ou d'améliorer sa visualisation. La méthode habituellement utilisée pour réaliser cette modification connait des limites dû au fait que la nature quantifiée des valeurs associées aux couleurs dans les images est ignorée. Dans cet article, nous présentons une analyse rigoureuse de cette méthode en utilisant la représentation par p-boite et proposons un algorithme alternatif utilisant cette représentation.
Les jeux possibilistes à information incomplète (Π-games) constituent un cadre approprié pour la représentation des jeux ordinaux sous connaissances incomplètes. Cependant, la représentation d'un Π-game sous la forme normale standard nécessite une expression extensive des fonctions d'utilités et de la distribution des possibilités, sur les espaces joints des actions et des types. Ce papier propose une vue moins coûteuse des Π- games : min-based polymatrix Π-games, qui permettent de spécifier de manière concise des Π-games à interactions locales.
Cet article est un plaidoyer pour réexaminer diverses approches qualitatives existantes du traitement des données, `a des fins de classification, d'un point de vue théorique. On propose une simple approche logique. Puis, on considère notamment l'apprentissage par l'espace des versions et l'analyse formelle de concept qui reposent sur différents paradigmes et diverses motivations, et ont été développés séparément. L'article exploite également la notion d'objet conditionnel comme un outil approprié pour la modélisation des règles si-alors. Il préconise également la théorie des possibilités pour gérer l'incertitude dans de tels contextes. Il s'agit d'une étape préliminaire, en vue d'une vision unifiée de la contribution de ces approches à l'apprentissage automatique.
Apprendre à prédire des rangements d'étiquettes est un problème difficile, en raison de leur nature combinatoire. Une façon de le contourner est de diviser le problème initial en plusieurs sous-problèmes plus simples. Les prédictions obtenues à partir de ces sous-problèmes simplifiés doivent ensuite être combinées en une seule sortie, résolvant les éventuelles incohérences entre les sorties. Dans ce travail, nous adoptons une telle approche en permettant aux sous-problèmes de produire des inférences prudentes sous la forme d'ensembles de rangs lorsque l'incertitude attachée aux données produit des prédictions peu fiables. Plus précisément, nous proposons de combiner une décomposition par rang, dans laquelle chaque sous-problème devient une régression ordinale prudente, avec les problème de satisfaction de contraintes (CSP) pour vérifier la cohérence des prédictions. Nos résultats expérimentaux indiquent que notre approche produit des prédictions avec une fiabilité et une précision équilibrée, tout en restant compétitive avec les approches classiques.
This paper presents a systematic approach to reduce the complexity of sector nonlinearity TS fuzzy models using existing linear dependencies between local linear submodels. The proposed approach results in a decrease of the fuzzy model rules from 2p to p + 1 rules while maintaining equivalence to the TS fuzzy model. An LMI formulation is presented to obtain conditions for stability analysis with an example to offer a comparison between the two models. The main purpose of reduced-complexity models is to keep the design and the structure of the nonlinear control and observer schemes as simple as possible for real-time implementation, especially when dealing with highly nonlinear systems with a very large number of premise variables. A real-world robotic example is provided to highlight the interests and current limitations of the proposed approach.
L'apprentissage de modèle de rangement est une tâche difficile, dans laquelle les données fournies peuvent être limitées, expliquant qu'une prédiction prudente soit désirable. Pour répondre à cette problématique, nous utilisons un modèle probabiliste paramétrique très populaire : le modèle de Plackett–Luce. Ce modèle est ici appliqué dans le cas imprécis où les paramètres estimés ont valeur dans des ensembles. En particulier, nous étudions comment faire une inférence prudente et sceptique à partir de ce modèle, et illustrons son application en apprentissage supervisé sur le problème de rangement d'étiquettes.
Les structures d'opposition, dérivées du carré d'opposition de la logique antique ont depuis plus d'une décade montré leur intérêt dans l'analyse de différents cadres de représentation et de traitement de l'information. L'utilisation d'une vision renouvelée et moins contrainte des structures d'opposition conduit dans cet article à considérer un hypercube d'opposition applicable à des cadres binaires ou gradués, qui est ici exemplifié sur l'intégrale de Sugeno et sur 15 autres expressions syntaxiquement distinctes qui peuvent lui être associées.
Les règles de vote agrègent les préférences d'un ensemble d'individus sur un ensemble de candidats. De nombreuses règles de vote ont été définies, étudiées et comparées ; elles diffèrent notamment par la nature de leur input et par leurs propriétés normatives. Cependant, ces règles sont anonymes (c'est-à-dire que leur résultat est inchangé par une permutation des votants) ; dans des contextes où les votants sont partitionnés en communautés, l'anonymat peut conduire à des résultats qui sont très inéquitables entre les communautés. Nous montrons comment, en utilisant des fonctions d'agrégation nonadditives, on peut généraliser une classe importante de règles de vote, qui permette de garantir le niveau souhaité d'équité envers les communautés.
Dans cet article, deux nouvelles définitions de monotonie sont introduites pour les entropies d'ensembles flous intuitionnistes (au sens d'Atanassov) et des entropies d'ensembles flous définis par intervalles. Elles sont basées sur l'utilisation de la représentation polaire de tels ensembles qui permet alors de proposer des définitions plus interprétables et plus proches de la définition de l'entropie classique.
La survie d'une chaîne de supermarchés dépend fortement de sa capacité à fidéliser ses clients. La question de l'assortiment du magasin est donc cruciale. Avec des dizaines de milliers de produits sur les étagères, définir l'assortiment idéal est un problème d'optimisation combinatoire complexe. L'approche que nous proposons inclut des connaissances a priori sur l'organisation hiérarchique des produits par famille pour formaliser le problème de l'assortiment en un problème combinatoire de sac à dos. La principale difficulté du problème d'optimisation reste l'estimation des bénéfices attendus d'une évolution de gamme pour une famille de produits. Cette estimation est basée sur les résultats comptables de magasins similaires du réseau. La définition de la similarité entre deux magasins est alors centrale et repose sur la connaissance a priori de l'organisation hiérarchique des produits. Cette structuration permet une comparaison abstraite qui rend mieux compte des comportements d'achats.
L'objectif de cet article est de comparer trois approches de gestion des données manquantes dans un contexte de classification avec étiquettes séquentielles à pas de temps variable. Les données concernent le suivi longitudinal de vingt-sept joueurs professionnels de football en termes de planning d'entraînement et de charge interne ressentie. Une approche sans imputation utilise l'ancienneté des données, les deux autres approches sont basées sur des modèles d'incertitude lors de l'imputation des données manquantes. L'Evidential K-Nearest Neighbors (EKNN) est utilisé pour la prédiction de charge interne en prenant en compte l'incertitude des étiquettes, et l'approche sans incertitude avec K-Nearest Neighbors standard. Les résultats montrent une certaine amélioration des prédictions pour les modèles utilisant l'incertitude des données imputées.
Le subspace clustering fournit, outre une décomposition de données en sous-groupes homogènes et distincts, une caractérisation des sous-espaces dans lesquels les sous-groupes vivent. Cet article explore la possibilité de capturer la notion d'attributs caractéristiques de sous-groupes dans le formalisme des degrés de typicité, par le biais de la définition d'attributs typiques des sous-groupes. Pour cela, il propose une définition de cette typicité d'attributs et un algorithme de clustering exploitant ces degrés pour la tâche de subspace clustering. Il illustre expérimentalement les différences sur des jeux de données simples.
L'Analyse Logique de Concepts consiste en une généralisation de l'Analyse Formelle de Concepts dans laquelle, les ensembles d'attributs sont remplacés par des expressions d'une logique arbitraire. Dans ce cadre, certaines approches existantes ont permis de dériver une logique contextualisée à partir d'un contexte formel, aboutissant ainsi à un système d'information logique. Il peut être constaté que toutes les approches proposées en ce sens, réutilisent l'opérateur ensembliste de Galois, afin de construire les formules logiques. Il s'avère que cet opérateur de Galois, hérité de la théorie classique de l'Analyse Formelle de Concepts, ne permet pas de prendre en considération des descriptions incomplètes d'objet. A cet effet, nous proposons dans ce papier, de nous inspirer d'une lecture possibiliste de la théorie de l'Analyse Formelle de Concepts permettant ainsi de considérer des opérateurs de dérivation modaux à même de générer des concepts formels possibles à partir de contexte formels incomplets.
Les sorties des algorithmes de classification sont souvent utilisées comme décision finale. Pourtant, dans certaines situations, ces sorties peuvent servir comme entrées à un problème de décision soumis à des contraintes. Dans cet article nous traitons ce problème pour le cas d'une optimisation de mélange de pièces de matériaux hétérogènes rangés dans différents conteneurs. L'information sur les matériaux composant chaque pièce est donnée sous forme de fonction de masse fournie par un classifieur évidentiel. Cet article propose un énoncé de ce problème d'optimisation de mélange dans le cadre des fonctions de croyance. Nous illustrons la résolution d'un tel problème dans le cas du tri des matières plastiques à des fins de recyclage.
Lorsque l'on classe un exemple sur la base d'un ensemble d'apprentissage, au moins trois situations dans lesquelles il est difficile de déterminer une classe unique peuvent se produire : soit il y a trop d'incertitude aléatoire car l'individu appartient à une zone de mélange, soit il y a trop d'incertitude épistémique car il y a peu de données dans la zone dans laquelle se situe l'exemple, soit l'exemple ne ressemble à aucun autre exemple d'apprentissage. Alors que les deux premières situations ont été explorées de manière assez intensive dans la littérature, la troisième situation a reçu en comparaison moins d'attention. Cet article présente des pistes de résolution de ce problème dans le cadre de la théorie des fonctions de croyance.
Dans la théorie des fonctions de croyance, on est souvent contraint `a travailler avec des fonctions de masse ayant un grand nombre d'ensembles focaux ou à combiner itérativement plusieurs fonctions de masse ce qui engendre l'explosion du nombre d'éléments focaux dans la fonction de masse résultante. Cette limite peut rapidement diminuer l'intérêt pratique d'une représentation crédibiliste des incertitudes. Face à cet aléa, l'approximation des fonctions de croyance constitue un atout. Dans cet article, nous proposons d'étendre les techniques classiques d'approximation, reposant essentiellement sur la comparaison du contenu informatif des fonctions de masse en terme de spécificité, à d'autres relations entre fonctions de croyance telles que l'ordre latticiel. Cela permet de pallier l'inadéquation des techniques classiques dans certaines applications.
Cet article s'intéresse aux distributions de possibilité bi-variées que nous proposons de construire à partir des distributions marginales. Nous suivons le chemin utilisé en probabilités par le théorème de Sklar qui relie une distribution de probabilité multi-variée à ses marginales par une copule qui modélise la dépendance entre les marginales. Nous nous interrogeons sur la potentielle équivalence entre l'approche probabiliste et l'approche possibiliste. Nous étudions plus particulièrement les cas de dépendance parfaite positive (comonotonie), de dépendance parfaite négative (anti-monotonie) et d'indépendance. Nous illustrons nos propositions sur des lois usuelles (uniforme, gaussienne).