Les Rencontres Francophones sur la Logique Floue et ses Applications (LFA) constituent la manifestation scientifique annuelle où chercheurs et industriels se réunissent afin de faire le point sur les développements récents des théories de l’imprécis et de l’incertain. Celles-ci comprennent, par exemple, les sous-ensembles flous, les possibilités, les fonctions de croyance, les probabilités imprécises, les ensembles approximatifs et aléatoires ou des logiques non classiques. Le large éventail de domaines couverts va de la commande floue, domaine historique de l’application des sous-ensembles flous, à l’apprentissage automatique en passant par l’aide à la décision, le raisonnement, la fusion d’informations ou encore les bases de données, pour n’en citer que quelques-uns.
Pour cette 28e édition, vingt-huit articles ont été retenus pour être inclus dans les actes, couvrant les thématiques classiques et émergentes telles que la commande floue, l’agrégation et la fusion d’informations, l’apprentissage automatique et la fouille de données, les bases de données, l’aide à la décision ou l’arithmétique floue.
À ce programme s'ajoutaient 3 conférences invitées :
- la première proposée par Leila Amgoud, directrice de recherche à l’IRIT à l’Université Paul-Sabatier de Toulouse. Ses travaux se situent dans le domaine de l’argumentation et de ses fondations, et son exposé portait sur cette dernière et sur ses liens possibles avec les théories de l’imprécis et de l’incertain.
- la deuxième proposée par Sylvie Le Hegarat-Mascle, professeur à l’Université de Paris Sud, au laboratoire SATIE. Ses travaux se concentrent notamment sur le développement d’outils propres à la théorie des fonctions de croyances, et leurs applications à des problématiques de traitement du signal.
- enfin, la troisième proposée par Olivier Strauss, Maître de conférences HDR à l’Université Montpellier II, au LIRMM. Ses travaux portent principalement sur le développement de techniques de traitement de signal et d’image intégrant des composantes floues, capables de manipuler des données imprécises et incertaines.
CONFÉRENCES INVITÉES
– Méthodes d’évaluation des arguments (Leila Amgoud)
– Fonctions de croyance : de la théorie a la pratique (Sylvie Le Hegarat-Mascle)
– Imprécisions et incertitudes dans les signaux numériques (Olivier Strauss)
CONTRIBUTIONS
– Quantifier la variabilité de séries temporelles de données imprécises (Zied Ben Othmane, Amine Aït Younes, Cyril de Runz, Vincent Mercelot)
– Règles spatiales floues et SIG pour l’évaluation d’un risque : le cas des feux de forêt (Laurence Boudet, Jean-Philippe Poli, Louis-Pierre Bergé, Michel Rodriguez)
– Sur le concept d’Intervalle Graduel Epais (IGE) : son sens, son utilité et son arithmétique associée (Reda Boukezzoula, Luc Jaulin, Laurent Foulloy)
– Efficient Mobius Transformations and their applications to Dempster-Shafer Theory (Maxime Chaveroche, Franck Davoine and Véronique Cherfaoui)
– Formalisation possibiliste du dilemme volonté/capacite à faire (Pierre Couturier, Abdelhak Imoussaten, Jacky Montmain)
– Clustering prudent : une approche relationnelle par seuillage (Sébastien Destercke, Mylène Masson, Benjamin Quost)
– Ajustement bayésien des mesures de similarité entre utilisateurs pour améliorer les recommandations basées sur un filtrage collaboratif (Yu Du, Sylvie Ranwez, Nicolas Sutton-Charani, Vincent Ranwez)
– Trois usages des capacités qualitatives (Didier Dubois, Francis Faux, Henri Prade, Agnes Rico)
– Ensembles épais, fonctions multivoques, et théorie des possibilités (Didier Dubois, Luc Jaulin, Henri Prade)
– Système a base de règles floues pour la reconnaissance de composés chimiques (Edwin Friedmann, Jean-Philippe Poli)
– Degré chrysippien dans une structure d’operateurs de logique floue (Driss Gretete, Khalid El Aroui, Mbarek Zaoui)
– Sur le raffinement du skyline : Une approche utilisant le treillis des concepts formels flous (Mohamed Haddache, Allel Hadjali, Hamid Azzoune)
– Fusion multimodale pour la reconnaissance des espèces d’arbres à partir des feuilles et des écorces (Siwar Jendoubi, Didier Coquin, Reda Boukezzoula)
– Proposition d’une approche mixte floue et neuro-floue pour le contrôle d’un système sous actionne et couple (Larbi Kharroubi, Hichem Maaref, Wahid Nouibat)
– Transformation possibiliste de lois de probabilités multi-variées elliptiques (Charles Lesniewska-Choquet, Gilles Mauris, Abdourrahmane Atto)
– Génération efficace d’estimations fiables de résumés linguistiques (Marie-Jeanne Lesot, Grégory Smits, Pierre Nerzic, Olivier Pivert)
– Possibilistic Hierarchical Clustering ( Helmi Manai, Zied Elouedi)
– Entropies et ensembles flous intuitionnistes (Christophe Marsala, Bernadette Bouchon-Meunier)
– Une nouvelle méthode normalisée pour la reconnaissance supervisée et la localisation d’objets basée sur la forme (Behrang Moradi Koutchi, Baptiste Magnier)
– Apprentissage de corrections contextuelles crédibilistes à partir de données partiellement étiquetées en utilisant la fonction de contour (Siti Mutmainah, Frédéric Pichon, David Mercier)
– Modélisation incertaine à partir de mesures non-reproductibles. Application a la comparaison de pression exercée par des matelas (Cyprien Neverov, Chihab Khnifass, Papa Beye, Nicolas Sutton-Charani, Abdelhak Imoussaten,Willy Fagart, Mylène Blot, Arnaud Dupeyron)
– Entropies et ensembles flous intuitionnistes (Dickson Owuor, Anne Laurent, Joseph Orero)
– Partitionnement de séries temporelles par modèles de mélange avec contraintes sur les instants d’amorçage des clusters (Emmanuel Ramasso, Thierry Denoeux)
– Etude d’un opérateur d’agrégation a la baisse en logique multivalente (Adrien Revault d’Allonnes, Marie-Jeanne Lesot)
– Une extension signée de la transformation floue imprécise (Olivier Strauss, Agnès Rico)
– Correction bayésienne de prédictions issues d’arbres de décision et évaluation crédibilise (Nicolas Sutton-Charani)
– Système d’Aide a la Décision a base de Logique Floue : Application a l’Agriculture Intelligente (Ahmad Tay, Frédéric Lafont, Jean-François Balmat, Nathalie Pessel)
– Un modèle Belief-Constrained Programming pour le VRPTW avec temps de service et de trajet crédibilistes (Tekwa Tedjini, Sohaib Afifi, Frédéric Pichon, Eric Lefèvre)
L'argumentation est l'action de convaincre, et pousser ainsi un auditoire à agir, par des arguments. Un argument est, en logique et en linguistique, l'ensemble des prémisses données en support à une conclusion. Il peut généralement être affaibli par d'autres arguments qui attaquent un ou plusieurs de ses trois composants (prémisses, conclusion, lien). Sa force dépend donc de la plausibilité des prémisses, de la nature du lien entre elles et la conclusion, et de l'acceptabilité préalable de la conclusion.
Bien que la théorie des fonctions de croyance ait été largement popularisée ces deux dernières décennies, il demeure des difficultés lors de sa mise en œuvre dans des applications réelles, de sorte que certains détracteurs arguent de son caractère " jouet ". Dans cette présentation, nous nous attacherons à illustrer l'utilité d'outils des fonctions de croyance dans des trois applications réelles.
Le traitement du signal a pour objet la détection, l'analyse, la transmission, la séparation et l'interprétation des signaux. C'est une discipline qui relève à la fois de la théorie des systèmes et de celle des processus stochastiques. Historiquement, elle concernait surtout les signaux physiques continus (on parle aussi de traitement des signaux analogiques). Le traitement du signal était alors réalise au moyen de circuits principalement électriques mais aussi pneumatiques ou optiques.
Afin d'analyser la qualité de la collecte des données Web, il est important de tenir compte de la variabilité des volumes de données recueillies au fil du temps. Cependant, ces volumes de données fournissent souvent des informations tendancielles que des informations exactes en raison du caractère non exhaustif des récoltes et de l'évolution temporelle des stratégies de récolte. Ils forment des séries temporelles imprécises. Par conséquent, la variabilité d'une série temporelle doit être considérée par rapport aux autres séries. Le but de cet article est de proposer une approche floue pour mesurer la variabilité des séries temporelles de données imprécises. Notre approche est basée (1) sur la construction de clusters flous sur toutes les données à chaque temporalité (2) sur la différence dans le positionnement des données dans des clusters flou à chaque temporalité.
Les systèmes d'aide à la décision couples à un Système d'Information Géographique (SIG) sont utiles pour évaluer des risques spatialises, qu'ils soient d'origine naturelle, industrielle ou humaine. Cependant, lorsque les connaissances ne sont pas suffisamment précises ou les processus complexes, les méthodes d'analyse des SIG ne sont pas toujours suffisantes. Dans cet article, nous proposons de coupler un SIG avec un Systeme Expert Flou (SEF) capable d'évaluer des réglés spatiales floues, c'est-à-dire, des règles floues intégrant des opérateurs spatiaux. Ceux-ci sont bases sur la morphologie mathématique floue et modélisent des relations métriques ou topologiques de haut niveau tels que ”être proche de” ou ”être dans la direction de”. Nous appliquons l'approche proposée à la mise en évidence des enjeux à risque dans le cas des feux de forêts : nous retaillons les connaissances expertes modélisées et montrons les résultats obtenus dans une interface dédiée à l'intervention des sapeurs-pompiers.
Cet article propose un nouveau concept appelé Intervalle Graduel Epais (IGE). Ce concept résulte de l'utilisation conjointe des Intervalles Graduels (IGs) et des Intervalles Epais (IEs). Les IGEs trouvent une de leur utilité dans la représentation et la manipulation des Intervalles Flous de Type-2 (IFT2). Dans ce cadre, un IFT2 est considéré et manipulé comme un IGE. Cette vision permet une extension de l'arsenal mathématique du calcul par intervalles conventionnels (ICs) aux IFT2. D'un point de vue pratique, l'approche proposée peut être considérée comme plus viable et permettra des calculs plus efficaces dans des scénarios appliqués.
La théorie de Dempster-Shafer (DST) généralise la théorie Bayesienne des probabilités, offrant d'utiles informations supplémentaires, mais souffre d'une complexité souvent supérieure. Beaucoup de travaux ont vise à réduire la complexité de transformations utilisées pour la fusion d'information avec la règle de Dempster. Les deux principales approches exploitent soit la structure du treillis Booléen, soit l'information contenue dans les sources de croyance. Chacune a ses mérites en fonction des cas. Ici, nous proposons des séquences de graphes pour le calcul de transformations de Möbius et leur inversion qui exploite `a la fois la structure du treillis Booléen et l'information des sources de croyance de façon optimale. Nous les nommons les Efficient Möbius Transformations (EMT). Nous montrons que la complexité des EMT est toujours inférieure à celle de la Fast Möbius Transform (FMT) pour toute transformation en DST. Plus généralement, les EMT peuvent être utilisées pour calculer optimalement les transformées zeta et de Möbius pour tout treillis.
S'il y a bien une prise de conscience de la coexistence des deux référentiels Volonté de faire et Capacité à faire, peu de travaux s'intéressent à la satisfaction des performances dans un espace multicritère tout en intégrant dans le modèle de décision des estimations de faisabilité. Aussi proposons nous des méthodes outillées pour aider le décideur à réaliser un compromis entre volonté à faire et capacité à faire dans un contexte d'incertitude tel que celui de la conception préliminaire. A cet effet, des modèles possibilistes des performances attendues et aussi de la capacité à les atteindre sont définis. A l'instar de l'estimation de la satisfaction des performances agrégées de plusieurs critères, la difficulté de réalisation de celles-ci est aussi calculée par une l'intégrale de Choquet. Ainsi il doit être possible de satisfaire au mieux les clients en cohérence avec les ressources d'ingénierie mobilisables.
Le problème du clustering peut être vu comme la recherche de classes d'équivalence d'objets. Dans la lignée de travaux récents sur la discrimination prudente, nous proposons dans cet article une méthode fournissant un clustering partiel sous la forme d'une matrice relationnelle incomplète. Cette approche permet de détecter des objets ambigus (par exemple sur les bords des classes), des classes de petite taille qui pourraient être fusionnées, ou encore des sous-ensembles d'objets dont la relation est mal définie.
Un système de recommandation vise à proposer à chaque utilisateur les items les plus pertinents en termes de goûts prédits. De ce fait, le système peut l'aider à naviguer de manière efficace dans un grand catalogue de produits. Pour prédire l'intérêt d'un utilisateur particulier pour un item, le filtrage collaboratif, une méthode désormais largement employée, s'appuie sur l'utilisation des notes données à cet item par des utilisateurs similaires. Par conséquent, la fac¸on d'identifier le voisinage d'un utilisateur influence fortement la qualité des recommandations. La similarité entre deux utilisateurs est souvent basée sur la cohérence des notes des items qu'ils ont co-notés, indépendamment du nombre de ces items. Nous introduisons ici une pondération qui est fonction de ce nombre d'items co-notés et améliore les mesures de similarité existantes sans en augmenter la complexité. La méthode est validée sur un jeu de données de référence du domaine.
Cet article explore les analogies formelles entre capacités qualitatives à valeurs sur une chaine finie et les capacités numériques : transformées de Möbius, cœur, et dualité. Dans le cadre qualitatif, les mesures de possibilité jouent le même rôle que les mesures de probabilité dans le cadre quantitatif. Cela crée des difficultés pour interpréter les capacités qualitatives et les notions correspondantes inspirées du cas quantitatif. En particulier, on tente de montrer qu'on peut faire trois usages très différents des capacités qualitatives : on peut les voir soit comme des bornes sur des mesures de possibilité ou de nécessité mal connues, soit comme un outil d'expression de l'attitude du décideur dans les critères qualitatifs de décision dans l'incertain, soit comme une contrepartie qualitative de la théorie des fonctions de croyance qui gère simultanément le caractère incomplet et contradictoire d'informations issues de plusieurs sources.
Le transport d'une information incertaine par une fonction multivoque se rencontre dans différents cadres, allant du calcul de l'image d'un ensemble par une fonction inverse au transport Dempstérien d'un espace probabilisé par une fonction multivoque. On obtient alors des images supérieures et inférieures. Dans chaque cas on manipule des ensembles dits “épais” au sens de Jaulin, c'est-`a-dire des ensembles mal connus bornés inférieurement et supérieurement. De tels ensembles mal connus se rencontrent sous diverses appellations dans la littérature, comme celles, par exemple, d'“ensemble-intervalle” chez Y. Y. Yao, de “twofold fuzzy sets” au sens de Dubois et Prade, ou d'“interval-valued fuzzy sets”,... Différentes opérations peuvent être définies sur ces ensembles qui sont interprétés disjonctivement (incertitude épistémique), plutôt que conjonctivement. Le but de cette note est de proposer une vision unifiée de ces formalismes dans le cadre de la théorie des possibilités, ce qui permettra de donner des extensions graduelles `a certains des calculs considérés.
Les nez électroniques sont en plein essor, notamment grâce à un besoin de plus en plus important dans des domaines comme la sécurité et le contrôle qualité. Ces périphériques de contrôle reposent sur différentes technologies qui font l'objet d'importantes recherches dans une communauté toujours plus grande de physiciens et électroniciens. Cependant, les données issues de ces capteurs sont souvent traitées par des algorithmes classiques peu ou mal configurés dans le but de reconnaître automatiquement des composés chimiques cibles. Ces algorithmes reposent souvent sur des modèles statistiques qui ne sont pas toujours adaptés à un nombre de données d'apprentissage restreint et des problèmes de reproductibilité avérés pour ces capteurs. Dans cet article, nous proposons d'entraîner des modèles flous et de comparer leurs performances avec les méthodes classiques de l'état de l'art.
Dans cet article, nous donnons des caractérisations des logiques chrysipiennes définies par une structures associée à des opérateurs de t-normes, de t-conormes négations et implications.
Les requêtes skyline constituent un outil approprié pour la prise de décisions intelligentes en présence de données multidimensionnelles lorsque différents, et souvent contradictoires, critères sont `a prendre en compte. Bas´e sur le concept de dominance de Pareto, ce type de requêtes permet d'extraire les objets les plus intéressants (les objets qui ne sont dominés par aucun autre objet au sens de Pareto) `a partir d'un ensemble de données. En pratique, le skyline calculé pourrait être de taille trop importante. Un tel scénario n'apporte pas assez d'information aux utilisateurs finaux. Dans cet article, nous proposons une nouvelle approche pour raffiner le skyline et donc réduire sa taille en utilisant des techniques empruntées de l'analyse des concepts formels flous. L'idée cl´e est de construire un treillis de concepts formels flous pour les objets skyline en se basant sur la distance entre chaque concept et le concept cible défini en fonction des critères skyline. Le skyline raffiné est donné par le concept qui contient k objets (où k est un paramètre défini par l'utilisateur) et ayant la distance minimale au concept cible. Une série d'expérimentations est menée pour démontrer la pertinence et l'efficacité de notre approche.
Dans cet article, nous nous intéressons au problème de la reconnaissance des espèces d'arbres à partir des feuilles et des écorces. Nous proposons un système de fusion multimodale crédibiliste qui permet une identification plus efficace de l'espèce de l'arbre. Nous avons étudié la performance de la solution proposée sur des données réelles et nous l'avons comparée à des solutions existantes.
Ce travail propose un contrôleur neuro-flou auto ajustable STFIS-PD (Self Tuning Fuzzy Inference System-Proportional Derivative). Ce contrôleur est combiné avec un contrôleur PID flou conventionnel (FPID) pour le contrôle d'un système sous actionné et couplé (le chariot-pendule inversé simple). Le réseau STFIS est utilisé afin de générer en ligne des conclusions (singletons) des règles floues d'un système d'inférence floue (SIF) de type Takagi-Sugeno d'ordre zéro. Ces conclusions sont obtenues par apprentissage en ligne utilisant un algorithme de rétro-propagation supervisé par une approche adaptative. Afin de balayer tout l'espace de sortie du contrôleur STFIS-PD, une consigne très riche en informations est appliquée au déplacement du chariot. Les résultats de simulation obtenus par MATLAB montrent, d'une part, l'interprétabilité du comportement du contrôleur STFISPD sous forme de règles de décisions, et d'autre part, la validation et la robustesse de l'approche proposée.
Cet article s'inscrit dans le champ de l'analyse de données multi-variées par la théorie des possibilités. Dans ce contexte nous proposons une méthode de construction de distributions de possibilités multivariées par transformation de lois de probabilité multivariées, notamment les lois elliptiques, en étendant des principes établis pour les lois uni-variées. Pour comparer ces distributions, nous proposons ensuite une mesure de divergence possibiliste équivalente inspirée de la mesure probabiliste de Kullback-Leibler. Les expressions analytiques pour les lois multi-variées de Gauss, de Student, et de Cauchy sont établies. Une application aux problèmes de la détection de changement entre des images SAR corrélées temporellement est finalement présentée.
Dans le cas où les données sont stockées dans des bases de données relationnelles, il a été proposé d'estimer des résumés linguistiques de façon à la fois efficace et fiable, en exploitant les statistiques maintenues par le SGBDR, en s'affranchissant ainsi d'accès coûteux aux données. Cet article propose d'améliorer la précision de ces estimations, tout en préservant l'efficacité de leur calcul : il enrichit l'approche en identifiant les cas o`u des calculs exacts sont nécessaires et en proposant des stratégies locales efficaces pour effectuer ces corrections. Les expériences réalisées sur des données réelles montrent que l'approche proposée, FRELS, reste incomparablement plus efficace que les approches basées sur des parcours des données et offre une meilleure précision que les approches basées uniquement sur les statistiques des données.
Les techniques de clustering jouent un rôle très important dans le regroupement des objets en un certain nombre de clusters (groupes) homogènes. L'un des types de clustering les plus connus est le clustering hiérarchique qui forme des clusters avec une façon hiérarchique. Grâce à sa simplicité et son efficacité, il fournit dans la plupart du temps de bons résultats avec des données certaines. Néanmoins, les versions standard de ce type d'algorithme de clustering ne sont pas en mesure de traiter des données imparfaites. Afin de surmonter cette limite, nous proposons une nouvelle approche basée sur le clustering hiérarchique dans un cadre possibiliste. Cette méthode permet aux objets d'appartenir à un ou plusieurs clusters avec des degrés de possibilité. Des expériences sur des bases de données réelles sont menées montrant l'efficacité de notre méthode proposée par rapport à d'autres méthodes de clustering hiérarchique.
Dans cet article, nous proposons une approche pour comparer des mesures d'entropie dans le cadre des sous-ensembles flous intuitionnistes (SFI) d'Atanassov. Dans cette approche, un SFI est représenté sous la forme d'un nombre complexe qui est ensuite utilisé pour réécrire les mesures d'entropie. Ainsi, grâce à cette nouvelle forme, une comparaison des comportements des différentes mesures peut être réalisée de façon plus aisée.
Ce document présente une nouvelle mesure normalisée pour l'évaluation de la pose d'objet basée sur les contours. Cet algorithme permet une évaluation supervisée de la reconnaissance ainsi que la localisation d'objets connus à partir de leur forme. Les différences entre une carte de contours de référence et une image candidate sont quantifiées en calculant une mesure de performance. Cette mesure est normalisée et permet de déterminer l'amplitude selon laquelle une forme d'objet diffère d'une position souhaitée. Comparée à 6 autres approches, les expériences sur des images réelles de différentes tailles/échelles montrent la pertinence de la nouvelle méthode pour une estimation de la pose d'un objet ou d'une correspondance de forme.
Dans ce papier, nous proposons d'apprendre les paramètres de mécanismes de corrections contextuelles crédibilistes à partir de données d'apprentissage partiellement étiquetées, c'est-à-dire de données où la vraie classe de chaque objet n'est connue que partiellement, en optimisant une mesure de différence entre les valeurs de la fonction de contour corrigée et la vérité terrain également représentée par une fonction de contour. Les avantages de cette méthode sont illustrés par des tests sur des données synthétiques et réelles.
Cet article concerne la modélisation de données incertaines à partir de mesures répétées mais nonreproductibles. Différentes approches issues des théories modernes de l'incertain sont considérées. Plus précisément, l'article s'intéresse à diverses extensions de tests statistiques non-paramétriques aux données incertaines. Dans ce travail préliminaire, les modèles propos´es sont mis en œuvre pour étendre une étude de comparaison de pression exercée par deux types de matelas sur les patients du CHU de Nîmes.
Les motifs graduels permettent de retrouver les corrélations entre attributs au moyen de règles telles que “plus l'entrainement sportif augmente, plus le stress physique diminue”. Cependant, un décalage dans le temps peut exister entre les modifications de certains attributs et leur impact sur d'autres. Les méthodes actuelles ne prennent pas cela en compte. Dans cet article, nous étendons les méthodes existantes pour gérer ces situations afin d'extraire des motifs tels que : “Plus l'entrainement augmente, plus le stress diminue 1 mois plus tard”. Nous étendons également nos motifs graduels pour inclure des contraintes temporelles floues telles que “Plus l'entrainement augmente, plus le stress diminue environ 1 mois plus tard”. Nous proposons trois algorithmes qui ont été implémentés et testés sur des données réelles.
La surveillance des structures est un domaine en plein essor faisant appel à certaines technologies de capteurs qui génèrent des données dont les spécificités nécessitent de développer des algorithmes d'analyse de données dédiés. Dans cette courte communication, nous nous intéressons à la technique de l'émission acoustique dont les capteurs fournissent des données temporelles massives, non régulièrement espacées, en temps quasi-continu et sans a priori sur le lien entre les signaux d'émissions acoustiques et l'endommagement dans les matériaux. Pour cela, après une description de la technique, de l'état de l'art et de la problématique, nous proposons une esquisse d'un modèle de mélange permettant de tenir compte de l'ordre des observations en temps continu avec possibilité de déterminer et de contraindre les instants d'apparition des classes en lien avec les endommagements.
Cet article présente un opérateur d'agrégation paramétrique, à l'origine conçu pour la cotation de l'information, dans le cadre formel de la logique multivalente. Il est étudié ici hors de ce contexte applicatif, à travers l'examen de configurations particulières soulignant l'étendue de ses capacités, des extrêmes minimal et maximal ; montrant certaines des t-normes qu'il permet de représenter, comme cas particuliers ; et comment il permet des comportements intermédiaires riches et flexibles.
La plupart des signaux numériques sont des versions échantillonnées et quantifiées de signaux continus réels. Transformer de tels signaux nécessite de définir des outils permettant de lier l'espace continu réel où le signal est défini et l'espace discret où il est représenté. Dans le formalisme de la transformation floue, le lien continu-discret est modélisé par un noyau d'échantillonnage tandis que le lien discret-continu est représenté par une partition floue. Dans de récents travaux, il a été proposé de remplacer la partition floue (positive) par des fonctions d'interpolation signées (comme par exemple les b-splines). La transformation floue imprécise permet de représenter le fait que le noyau d'échantillonnage est connu de façon imprécise en remplaçant le noyau d'échantillonnage par son équivalent maxitif. Dans sa version initiale, les noyaux d'interpolations étaient représentés par une partition floue classique. Dans cette nouvelle version, nous montrons qu'on peut conserver toutes les propriétés de la transformation floue imprécise en remplaçant la partition floue classique par une partition construite avec des noyaux signés.
Comme pour de nombreux classifieurs, les prédictions issues d'arbres de décision sont naturellement probabilistes. A chaque feuille de l'arbre est associée une distribution de probabilité sur les labels estimée de fac¸on fréquentiste. Ces probabilités présentent ainsi l'inconvénient majeur d'être potentiellement non-fiables dans le cas où elles sont estimées à partir d'un faible nombre d'exemples. Les approches bayésiennes empiriques permettent la mise-à-jour de distributions de probabilité en fonction des effectifs observés. Cet article présente une approche de correction des probabilités prédictives binaires issues d'arbres de décision au travers l'utilisation d'une méthode bayésienne empirique. L'ajustement des probabilités prédictives des arbres est ainsi concentré sur les feuilles de petites tailles, ce qui entraîne une nette amélioration des performances prédictives. L'amplitude de ces corrections est utilisée pour générer des fonctions de croyance prédictives qui sont finalement évaluées par l'extension incertaine de trois indices d'évaluation de probabilités prédictives.
Cet article présente une nouvelle approche à base de logique floue pour évaluer le risque phytosanitaire dans une serre produisant des roses. Le but de cette étude est de fournir à l'agriculteur un indice représentant le risque de présence de nuisible : Western Flower Thrips (WFT) ou Frankliniella Occidentalis, et d'enlever la phase de comptage manuel. Un système d'aide à la décision modulaire basé sur la connaissance d'experts a été conçu. Le système proposé fournit un facteur de risque en fonction des données météorologiques et statiques. Les résultats de simulation sont présentés pour valider notre approche.
Dans cet article, nous considérons une variante du problème de tournées de véhicules avec fenêtres de temps (VRPTW) où les temps de service et les temps de trajet sont incertains et représentés par des fonctions de croyance. Cette théorie est plus générale que la théorie des probabilités dans la modélisation des incertitudes. Nous proposons d'appliquer l'approche Belief-Constrained Programming, qui étend la méthode Chance-Constrained Programming en optimisation stochastique, au VRPTW afin de gérer les temps de service et les temps de trajet crédibilistes. Notre modèle impose des bornes minimales pour la croyance et la plausibilité que le service de chaque client commence dans sa fenêtre de temps. Un algorithme mémétique est mis en place pour la résolution des instances de Solomon adaptées aux données crédibilistes.