L'objectif de cet article est de comparer trois approches de gestion des données manquantes dans un contexte de classification avec étiquettes séquentielles à pas de temps variable. Les données concernent le suivi longitudinal de vingt-sept joueurs professionnels de football en termes de planning d'entraînement et de charge interne ressentie. Une approche sans imputation utilise l'ancienneté des données, les deux autres approches sont basées sur des modèles d'incertitude lors de l'imputation des données manquantes. L'Evidential K-Nearest Neighbors (EKNN) est utilisé pour la prédiction de charge interne en prenant en compte l'incertitude des étiquettes, et l'approche sans incertitude avec K-Nearest Neighbors standard. Les résultats montrent une certaine amélioration des prédictions pour les modèles utilisant l'incertitude des données imputées.
La survie d'une chaîne de supermarchés dépend fortement de sa capacité à fidéliser ses clients. La question de l'assortiment du magasin est donc cruciale. Avec des dizaines de milliers de produits sur les étagères, définir l'assortiment idéal est un problème d'optimisation combinatoire complexe. L'approche que nous proposons inclut des connaissances a priori sur l'organisation hiérarchique des produits par famille pour formaliser le problème de l'assortiment en un problème combinatoire de sac à dos. La principale difficulté du problème d'optimisation reste l'estimation des bénéfices attendus d'une évolution de gamme pour une famille de produits. Cette estimation est basée sur les résultats comptables de magasins similaires du réseau. La définition de la similarité entre deux magasins est alors centrale et repose sur la connaissance a priori de l'organisation hiérarchique des produits. Cette structuration permet une comparaison abstraite qui rend mieux compte des comportements d'achats.
S'il y a bien une prise de conscience de la coexistence des deux référentiels Volonté de faire et Capacité à faire, peu de travaux s'intéressent à la satisfaction des performances dans un espace multicritère tout en intégrant dans le modèle de décision des estimations de faisabilité. Aussi proposons nous des méthodes outillées pour aider le décideur à réaliser un compromis entre volonté à faire et capacité à faire dans un contexte d'incertitude tel que celui de la conception préliminaire. A cet effet, des modèles possibilistes des performances attendues et aussi de la capacité à les atteindre sont définis. A l'instar de l'estimation de la satisfaction des performances agrégées de plusieurs critères, la difficulté de réalisation de celles-ci est aussi calculée par une l'intégrale de Choquet. Ainsi il doit être possible de satisfaire au mieux les clients en cohérence avec les ressources d'ingénierie mobilisables.
Dans un marché fortement concurrentiel, les industriels doivent constamment améliorer leurs produits pour satisfaire leurs clients tout en restant compétitifs et en limitant la prise de risques. Or, en phase préliminaire de conception, la définition encore incomplète du produit rend la prévision de ses performances incertaine. C'est donc dans un contexte d'évaluation incertaine que les décideurs doivent faire les choix de conception les plus satisfaisants pour les clients. Plusieurs indices de plus-value ont été proposés dans la littérature dans le contexte de l'analyse multicritère pour estimer l'espérance de gain de satisfaction par rapport aux améliorations concurrentes envisageables. Ces modèles reposent cependant sur des hypothèses qui font abstraction de la faisabilité des améliorations espérées. Sur la base de techniques d'analyse de décision multicritère en environnement incertain, cet article propose une extension possibiliste du concept d'indice de plus-value.
Cet article s'intéresse à la détermination des performances qu'il convient d'améliorer en priorité dans une évaluation multicritère. Il s'agit d'identifier les dimensions selon lesquelles l'amélioration serait la plus profitable tout en restant réalisable. Un indice de plus-value estime la pertinence d'une amélioration au regard de ces deux aspects. Cette proposition est intégrée dans un système de recommandation qui exploite automatiquement des bases de critiques en langage naturel recueillies sur le web pour estimer les préférences des utilisateurs et les chances de succès des améliorations, puis identifier les paramètres de l'indice de plus-value. Cela permet de faciliter les phases d'évaluation par critère et d'identification du modèle de préférence des utilisateurs, généralement complexes et fastidieuses, plus particulièrement quand les interactions entre les critères sont prises en compte. Cette proposition est appliquée à l'amélioration de services hôteliers dans la région Nouvelle Aquitaine qui souhaite faire un diagnostic et améliorer l'attractivité de ses hôtels.
La résolution collective d'un problème par un groupe d'agents est jalonnée de décisions sur lesquelles les agents doivent échanger. Le débat correspondant est vu ici comme un processus dynamique. Un premier modèle de simulation théorique relevant du cadre de la décision multicritère a été proposé dans [1] mais sans représentation explicite de la dynamique de délibération et sans justification sémantique. Un deuxième modèle descriptif a été proposé dans [2] où les influences sociales entre agents et les stratégies d'argumentation apparaissent comme les grandeurs clés de la dynamique du débat. Cet article se donne pour objectif de justifier les équations de [1] en s'appuyant sur les éléments sémantiques manipulés dans [2] pour fournir au final un modèle de débat dans un cadre cybernétique qui explicite les aspects dynamiques de la délibération et ouvre des perspectives pour le pilotage du déroulement de débats. A group of agents is faced with collective decisional problems. The corresponding debate is seen as a dynamical process. A first theoretical model based upon a muticriteria decision framework was proposed in [1] but without semantic justifications and explicit dynamical representation. A second descriptive model was proposed in [2] where social influences and argumentation strategy govern the dynamics of the debate. This paper aims at justifying the equations introduced in [1] with the semantics concepts reported in [2] to provide a model of a debate in the framework of control theory that explicitly exhibits the dynamical aspects and offers further perspectives for control purposes of the debate.
Ce travail s'inscrit dans le cadre du projet RIDER (projet visant à développer un système de gestion de l'énergie faiblement dépendant du bâtiment à contrôler) et propose une nouvelle approche pour réduire les coûts énergétiques en se basant sur le confort thermique. Cette approche exploite la notion du confort thermique afin de calculer de nouvelles consignes à appliquer au système de contrôle du conditionnement du bâtiment. L'approche s'appuie sur le fait que le confort thermique est une notion multidimensionnelle subjective. La littérature propose des modèles statistiques pour appréhender le confort thermique. Malheureusement, ces modèles sont fortement non linéaires et non interprétables ce qui rend difficile leur utilisation pour du contrôle ou de l'optimisation. Ce papier présente un nouveau modèle de confort basé sur la théorie de l'utilité multi attributs et les intégrales de Choquet. L'intérêt d'un tel modèle est qu'il est interprétable en termes de préférences, linéaire par simplexe ce qui facilite la résolution des problèmes d'optimisation et plus concis qu'un système de contrôle à base de règles floues. Quelques fonctionnalités de supervision illustrent l'intérêt de notre approche. The present work is part of the RIDER project (it aims to develop a weak system dependency of energy management framework which could be applied to different systems and various scales.) and proposes a new approach based on thermal comfort in order to reduce energy costs. This approach takes advantage of the thermal comfort concept in order to calculate new setpoints for the building energy control system. It relies on the fact that thermal comfort is a subjective multidimensional concept. The literature provides statistical thermal comfort models but their complexity and non-linearity makes them not useful for regulation and optimization processes. That's why, this paper aims to present a new thermal comfort model based on the utility theory and Choquet integrals. The advantages of our model are its interpretability in term of preference functions, its linearity by simplex which simplifies optimization problems' solving, and it is more succinct compared to a fuzzy rule based solution. The relevance of our approach is illustrated by some supervision cases.
L'exploitation d'ontologies pour la recherche d'information, la découverte de connaissances ou le raisonnement approché nécessite l'utilisation de mesures sémantiques qui permettent d'estimer le degré de similarité entre des entités lexicales ou conceptuelles. Récemment un cadre théorique abstrait a été proposé afin d'unifier la grande diversité de ces mesures, au travers de fonctions paramétriques générales. Cet article propose une utilisation de ce cadre unificateur pour choisir une mesure. A partir du (i) cadre unificateur exprimant les mesures basées sur un ensemble limité de primitives, (ii) logiciel implémentant ce cadre et (iii) benchmark d'un domaine spécifique, nous utilisons une technique d'apprentissage semi-supervisé afin de fournir la meilleure mesure sémantique pour une application donnée. Ensuite, sachant que les données fournies par les experts sont entachées d'incertitude, nous étendons notre approche pour choisir la plus robuste parmi les meilleures mesures, i.e. la moins perturbée par les erreurs d'évaluation experte. Nous illustrons notre approche par une application dans le domaine biomédical. Knowledge-based semantic measures are cornerstone to exploit ontologies not only for exact inferences or retrieval processes, but also for data analyses and inexact searches. Abstract theoretical frameworks have recently been proposed in order to study the large diversity of measures available; they demonstrate that groups of measures are particular instantiations of general parameterized functions. In this paper, we study how such frameworks can be used to support the selection/design of measures. Based on (i) a theoretical framework unifying the measures, (ii) a software solution implementing this framework and (iii) a domain-specific benchmark, we define a semi-supervised learning technique to distinguish best measures for a concrete application. Next, considering uncertainty in both experts' judgments and measures' selection process, we extend this proposal for robust selection of semantic measures that best resists to these uncertainties. We illustrate our approach through a real use case in the biomedical domain.
Concevoir ou améliorer un produit ou un système industriel nécessite la prise en compte de nombreuses fonctionnalités qui doivent satisfaire un grand nombre d'objectifs/critères interdépendants parfois difficiles à atteindre simultanément. L'interaction entre les critères apparait être une notion centrale et pourtant ambiguë dans un projet de conception ou d'amélioration où l'influence des paramètres sur la performance espérée est nécessairement imparfaitement connue. Deux points de vue sont rencontrés dans la littérature. Les approches relevant de l'aide à la décision multicritère qui s'attachent à modéliser les préférences des décideurs manipulent des interactions préférentielles. Les approches relevant du génie industriel ou du génie logiciel accordent une place prépondérante aux contraintes fonctionnelles entre les critères qui semblent alors régir la réalisabilité conjointe d'un ensemble d'objectifs. Les deux types d'interaction sont ainsi rarement gérés conjointement dans un projet d'amélioration. Cet article tente de proposer un cadre unificateur autour de la notion d'interaction en construisant un consensus entre volonté de faire et capacité à faire, inspiré de méthodes d'optimisation de type descente du gradient.
Les ontologies sont le support de nombreuses applications basées sur l'exploitation de connaissances expertes. Elles sont utilisées en particulier pour estimer le contenu informationnel (IC) des concepts clés d'un domaine : une notion fondamentale dont dépendent diverses analyses basées sur les ontologies, e.g. les mesures sémantiques. Cet article propose de nouveaux modèles d'IC basés sur la théorie des fonctions de croyance. Ces modèles ont pour objet de remédier à une limitation des modèles classiques qui ne tiennent pas compte de l'Hypothèse d'Inférence Inductive (HII) pourtant intuitivement utilisée par l'homme. Dans les modèles classiques d'IC , les occurrences d'un concept (e.g. Maths) ont une influence sur l'IC des concepts plus généraux subsumant le concept (e.g. Sciences) ; en revanche, elles n'affectent en rien l'IC d'un concept subsumé (e.g. Algebra). C'est ce comportement que se propose de prendre en compte l'HII. Les propriétés attendues de notre modèle d' IC donnent les contraintes mathématiques à respecter lors de sa construction. Des évaluations empiriques viennent vérifier qu'il a également un comportement des plus satisfaisants pour les cas d'usage les plus classiques d'IC.