Lorsque l'on classe un exemple sur la base d'un ensemble d'apprentissage, au moins trois situations dans lesquelles il est difficile de déterminer une classe unique peuvent se produire : soit il y a trop d'incertitude aléatoire car l'individu appartient à une zone de mélange, soit il y a trop d'incertitude épistémique car il y a peu de données dans la zone dans laquelle se situe l'exemple, soit l'exemple ne ressemble à aucun autre exemple d'apprentissage. Alors que les deux premières situations ont été explorées de manière assez intensive dans la littérature, la troisième situation a reçu en comparaison moins d'attention. Cet article présente des pistes de résolution de ce problème dans le cadre de la théorie des fonctions de croyance.
Les sorties des algorithmes de classification sont souvent utilisées comme décision finale. Pourtant, dans certaines situations, ces sorties peuvent servir comme entrées à un problème de décision soumis à des contraintes. Dans cet article nous traitons ce problème pour le cas d'une optimisation de mélange de pièces de matériaux hétérogènes rangés dans différents conteneurs. L'information sur les matériaux composant chaque pièce est donnée sous forme de fonction de masse fournie par un classifieur évidentiel. Cet article propose un énoncé de ce problème d'optimisation de mélange dans le cadre des fonctions de croyance. Nous illustrons la résolution d'un tel problème dans le cas du tri des matières plastiques à des fins de recyclage.
L'apprentissage de modèle de rangement est une tâche difficile, dans laquelle les données fournies peuvent être limitées, expliquant qu'une prédiction prudente soit désirable. Pour répondre à cette problématique, nous utilisons un modèle probabiliste paramétrique très populaire : le modèle de Plackett–Luce. Ce modèle est ici appliqué dans le cas imprécis où les paramètres estimés ont valeur dans des ensembles. En particulier, nous étudions comment faire une inférence prudente et sceptique à partir de ce modèle, et illustrons son application en apprentissage supervisé sur le problème de rangement d'étiquettes.
Apprendre à prédire des rangements d'étiquettes est un problème difficile, en raison de leur nature combinatoire. Une façon de le contourner est de diviser le problème initial en plusieurs sous-problèmes plus simples. Les prédictions obtenues à partir de ces sous-problèmes simplifiés doivent ensuite être combinées en une seule sortie, résolvant les éventuelles incohérences entre les sorties. Dans ce travail, nous adoptons une telle approche en permettant aux sous-problèmes de produire des inférences prudentes sous la forme d'ensembles de rangs lorsque l'incertitude attachée aux données produit des prédictions peu fiables. Plus précisément, nous proposons de combiner une décomposition par rang, dans laquelle chaque sous-problème devient une régression ordinale prudente, avec les problème de satisfaction de contraintes (CSP) pour vérifier la cohérence des prédictions. Nos résultats expérimentaux indiquent que notre approche produit des prédictions avec une fiabilité et une précision équilibrée, tout en restant compétitive avec les approches classiques.
Le problème du clustering peut être vu comme la recherche de classes d'équivalence d'objets. Dans la lignée de travaux récents sur la discrimination prudente, nous proposons dans cet article une méthode fournissant un clustering partiel sous la forme d'une matrice relationnelle incomplète. Cette approche permet de détecter des objets ambigus (par exemple sur les bords des classes), des classes de petite taille qui pourraient être fusionnées, ou encore des sous-ensembles d'objets dont la relation est mal définie.
La planification de trajectoires pour les véhicules autonomes se base généralement sur une représentation simplifiée de l'environnement comme les grilles d'occupation 2D. Ces grilles sont construites à partir de mesures de capteurs entâchées de beaucoup d'incertitudes (phénomènes d'occulation, éloignement par rapport au capteur, etc). Cela signifie que l'information d'occupation peut être très incertaine et imprécise à certains endroits de la grille, comme très précise et fiable à d'autres endroits. Modeliser de manière fine cette information est donc essentiel pour décider de l'action optimale à choisir pour le véhicule. Cependant une modélisation fine implique le plus souvent un coût calculatoire élevé. Dans cet article, nous proposons un modèle de décision capable de représenter fidèlement les informations disponibles tout en fournissant des inférences efficaces de complexité fixe.
L'objectif de cet article est de proposer une nouvelle approche de classification prudente basée sur l'inférence Bayésienne robuste et l'analyse discriminante linéaire. Cette modélisation est conçue pour prendre en compte, dans ses inférences a posteriori, le manque d'information lié aux données. Le principe de cette approche est d'utiliser un ensemble de distributions a priori pour modéliser l'ignorance initiale, plutôt qu'une seule distribution (souvent dite “non-informative”) qui peut fortement influencer les résultats en cas de faible quantité de données. Des premières expériences montrent que l'ajout d'imprécision permet d'être prudent en cas de doute sans pour autant diminuer la qualité du modèle, tout en gardant un temps de calcul raisonnable.
La modélisation des préférences d'un décideur à propos d'alternatives multi-critère commence souvent par la collecte d'informations sur ces préférences, qui sont ensuite utilisées pour choisir un modèle issus d'une classe particulière (CP-net, moyenne pondérée). Ces procédures peuvent induire des inconsistances, dues par exemple à l'existence d'informations peu fiables et/ou d'un choix d'une classe de modèle trop restreinte. Nous proposons de résoudre ces problèmes en permettant au décideur d'exprimer une incertitude quand à l'information fournie sur les préférences, sous la forme d'une fonction de croyance.
Un problème récurrent des méthodes (par exemple probabilistes imprécises) qui produisent des prédictions imprécises est leur comparaison, en particulier dans les problémes de classification. En effet, est-il préferable d'avoir une estimation trés imprécise mais fiable (contenant plus souvent la vérité), plutôt qu'une estimation précise mais moins fiable (commettant plus souvent une erreur) ? Dit autrement, comment quantifier la valeur ou le coût de l'imprécision ? Le but de ce papier est d'une part de proposer un ensemble de propriété qu'une telle évaluation devrait satisfaire, et d'autre part de proposer un moyen général de déduire des coûts affectés aux prédictions imprécises, dépendant d'un seul paramètre mesurant la ”prudence” de l'évaluateur.
S'il existe de nombreuses méthodes permettant d'intégrer l'information concernant la fiabilité des sources et des données à des modèles d'incertitudes, il existe nettement moins de travaux s'intéressant au problème d'évaluer cette fiabilité. Dans ce papier, nous proposons une méthode permettant d'estimer cette fiabilit é, basée sur un ensemble de critères d'évaluation et sur la théorie de l'évidence. L'exemple choisi est tiré d'un cas réel issu de l'application Sym'Previus, entrepˆot de données en microbiologie prévisionnelle. There are many available methods to integrate data or information source reliability in an uncertainty representation, but there are only a few works focusing on the problem of evaluating this reliability. In this paper, we propose a method to assess data reliability froma set of criteria by the means of evidence theory. The chosen illustrative example comes from real-world data issued from the Sym'Previus predictive microbiology oriented data warehouse.
Un des inconvénients majeurs de l'utilisation des théories probabilistes imprécises est le coût calculatoire qui leur est associé. Pour réduire ce coût, il est intéressant de savoir sous quelles conditions certaines propriétés des probabilités classiques qui facilient le calcul sont conservées par des représentations probabilistes imprécises. Dans cet article, nous étudions sous quelles conditions le principe d'inclusion-exclusion (ou égalité de Poincaré) est satisfait par des fonctions de croyances. Nous illustrons ensuite un cadre pratique dans lequel ces conditions sont satisfaites : la fiabilité des systèmes. One of the main drawback of imprecise probability theories is the computational burden associated with their use. To reduce this cost, it is useful to know under which conditions some properties of classical probabilities used in calculations can be extended to imprecise probabilistic frameworks. In this paper, we focus on the inclusionexclusion principle (a.k.a. Poincaré equality) and the conditions under which belief functions do satisfy it. We then show that the results can be applied to the particular framework of system reliability.
Les arbres de décision sont des classifieurs très populaires. Dans cet article, nous étendons une méthode de construction d'arbres de décision à deux classes, basés sur les fonctions de croyance, au cas multi-classe. Nous proposons pour cela trois extensions possibles : combiner des arbres à deux classes ou directement étendre l'estimation des fonctions de croyance au sein de l'arbre au cadre multi-classe. Des expériences sont effectuées de manière à comparer ces arbres aux arbres de décision classiques Decision trees are popular classification methods. In this paper, we extend to multi-class problems a decision tree method based on belief functions previously described for two-class problems only. We propose three possible extensions : combining multiple two-class trees together and directly extending the estimation of belief functions within the tree to the multi-class setting. We provide experiments, results and compare them to usual decision trees.
La décomposition binaire consiste à transformer un problème de classification multiclasse en une série de problèmes binaires plus simples. Cette technique peut fournir cependant des estimations de probabilités conditionnelles binaires inconsistantes entre elles. Les dichotomies emboîtées, qui proposent une décomposition arborescente, permettent d'éviter cet inconvénient. Cependant, une mauvaise estimation des probabilités dans l'arbre peut toujours biaiser les prédictions. Pour remédier à ce problème, nous proposons de considérer les dichotomies emboîtées avec des intervalles de probabilit és. Les expériences montrent que cette approche a plusieurs avantages : inférences plus prudentes quand peu d'information est disponible, et calcul avec des intervalles de probabilités plus efficaces quand des fonctions de coûts génériques sont considérées. Binary decomposition techniques transform a multiclass problem into several simpler binary problems. In such techniques, a classical issue is to ensure the consistency between the binary assessments of conditional probabilities. Nested dichotomies, which consider treeshaped decomposition, do not suffer from this issue. Yet, a wrong probability estimate in the tree can strongly biase the predictions. To overcome this issue, we consider in this paper imprecise nested dichotomies, in which binary probabilities become imprecise. We show in experiments that the approach has many advantages : it provides cautious inferences when only little information is available, and allows to make efficient computations with imprecise probabilities even when considering generic cost functions.