Jean-Claude Régnier est Professeur des Universités à l’université de Lyon-Lyon 2, UMR CNRS 5191 ICAR (Interactions, Corpus, Apprentissages, Représentations) http://icar.univ-lyon2.fr/membres/jcregnier/ et directeur de thèse à l’ED 485 EPIC de l’Université de Lyon. Il a obtenu, en 1983, un doctorat en mathématiques de l’ULP L. et, en 2000, une HDR à l’Université de Strasbourg. Il est membre de l’IASE, de l’ISI (Institut International de la Statistique), de la SFDS où il a présidé de 2003 – 2011, le groupe «Enseignement de la statistique ». Membre des comités scientifiques EGC (2007, 09, 10, 11, 12, 13, 14, 15), A.S.I. 3 (2005), A.S.I. 4 (2007), SFDS (2006) et co-organisateur du 1er C. I. F. sur l’Enseignement de la Statistique (2008) à Lyon, il a présidé le 4ème à Bordeaux en 2015. Président de comité scientifique de A.S.I. 5, 6, 7 et 8. Coordinateur de plusieurs accords de coopération scientifique entre Lyon2 et des universités brésiliennes, russe. Il participe au développement de la didactique de la statistique ainsi qu’au développement théorique de l’A.S.I., à ses applications et sa diffusion, en particulier, dans le programme brésilien Sciences sans frontière en tant que Chercheur invité spécial et en tant que professeur invité de l’Université d’Etat de Tomsk (Sibérie).
60,00€
Disponible
Dans la littérature, de nombreux travaux traitent de méthodes d'alignement d'ontologies. Ils utilisent, pour la plupart, des relations basées sur des mesures de similarité qui ont la particularité d'être symétriques. Cependant, peu de travaux évaluent l'intérêt d'utiliser des mesures d'appariement asymétriques dans le but d'enrichir l'alignement produit. Ainsi, nous proposons dans ce papier une méthode d'alignement extensionnelle et asymétrique basée sur la découverte des implications significatives entre deux ontologies. Notre approche, basée sur le modèle probabiliste d'écart à l'indépendance appelé intensité d'implication, est divisée en deux parties consécutives : (1) l'extraction, à partir du corpus textuel associé à l'ontologie, et l'association des termes aux concepts; (2) la découverte et sélection des implications génératrices les plus significatives entre les concepts. La méthode proposée est évaluée sur deux jeux de données réels portant respectivement sur des profils d'entreprises et sur des catalogues de cours d'universités. Les résultats obtenus montrent que l'on peut trouver des relations pertinentes qui sont ignorées par un alignement basé seulement sur des mesures de similarité.
Ce chapitre a pour objectif de présenter quelques résultats issus d'une recherche portant sur les difficultés et facilités d'apprentissage de la statistique et évaluer les connaissances et compétences des étudiants à l'égard de quelques notions élémentaires de statistique telles que : moyenne, écart-type et intervalle de confiance afin de repérer leurs niveaux de conceptualisation et mieux comprendre les obstacles auxquels ils se confrontent. Les données construites au moyen d'une enquête par questionnaire sont traitées dans le cadre théorique de l'analyse statistique implicative à travers l'usage du logiciel C.H.I.C. qui vient compléter une analyse statistique descriptive.
En didactique des Mathématiques, mais plus généralement en sciences humaines, de nombreuses recherches utilisent des analyses qualitatives pour falsifier expérimentalement des hypothèses formulées a priori, c'est-à-dire en amont de la recherche. Une telle approche méthodologique, appliquée à une enquête, s'avère le plus souvent insuffisante pour analyser toutes les variables en jeu dans des phénomènes contingents d'enseignement/ apprentissage, même si dans certains cas (analyse ponctuelle de protocoles, de vidéos, etc.), elle permet de déceler quelques relations intéressantes. Mais si le nombre de sujets devient trop volumineux, l'analyse qualitative ne réussit plus à extraire toutes les relations existant entre les variables en jeu. Une analyse quantitative sur une base statistique s'imposera et sera complétée par une analyse qualitative, indispensable à une interprétation contextuelle. Cette communication vise à présenter une mesure permettant de confronter statistiquement, l'analyse a priori et la contingence.
Nous discutons de l'apport de la méthode d'analyse statistique implicative au sens de R. Gras, à l'étude de la concordance/discordance des rangs accordés par des juges à des objets. Cette dernière est à comprendre au sens de Friedman ou de Kendall. Ici nous comparons une analyse de préférences exprimées par les rangs, avec l'analyse de la propension entre variables modales de J. B. Lagrange. Nous nous affranchissons de l'hypothèse d'absence de lien a priori entre les variables. Nous affectons d'une mesure de qualité des énoncés de la forme : « si l'objet a est rangé par les juges alors, généralement, l'objet b est rangé à un rang meilleur par les mêmes juges », et représentons par un graphe les relations de préférences de l'ensemble des objets rangés. Nous nous limitons aux deux cas des rangements complets et incomplets mais sans ex æquo de q objets par k juges. Le texte présenté ici reprend en partie (Régnier et Gras, 2005).
Dans le but de rendre l'interprétation plus aisée, deux problèmes sont devenus cruciaux : filtrer les règles les plus intéressantes et les structurer pour mettre en lumière leurs relations. Dans ce chapitre, nous nous plaçons dans le cadre de l'ASI et nous proposons une nouvelle technique pour réduire l'ensemble de règles en détectant les règles redondantes. Nous définissons deux nouvelles mesures basées sur l'entropie de Shannon et sur l'indice de Gini.
En fouille de règles, certaines situations exceptionnelles défient le bon sens. C'est le cas de la règle R : a (flèche) c et b (flèche) c et (a et b) (flèche) non c. Une telle règle, que nous étudions dans l'article, est appelée règle d'exception. A la suite des travaux précurseurs de E. Suzuki et Y. Kodratoff (1999), qui ont étudié un autre type de règle d'exception, nous cherchons ici à caractériser les conditions d'apparition de la règle R dans le cadre de l'Analyse Statistique Implicative. Nous étendons cette notion aux R-règles.
Après avoir généralisé l'Analyse Statistique Implicative au cas où l'espace des sujets est continu, nous étendons son champ d'application au cas où cette fois les espaces des variables sont continus sur [0; 1]. Ainsi, les variables seront observées sur des intervalles munis d'une loi de répartition continue. Nous procédons, tout d'abord, à l'extension à partir du traitement connu en A.S.I. des variables-intervalles. Puis, nous envisageons un cas particulier où les distributions sur les espaces des variables suivent une même loi uniforme. Enfin, nous traitons le cas général de l'extension aux espaces de variables munis de lois différentes et quelconques.
L'Analyse Statistique Implicative (A.S.I.) classique permet d'extraire des règles et des méta-règles entre des variables de nature variée à partir de données d'une population discrète et finie. Nous envisageons ici l'extension de cette méthode à une population continue sur laquelle est définie une distribution de probabilité donnée. Nous obtenons des indices de qualité des règles extraites de variables booléennes sur une telle population Nous illustrons cette nouvelle extension de l'A.S.I. par des exemples. Nous montrons que la restriction au cas classique de cette extension au cas continu est valide.
L'interprétation d'un large ensemble de données à l'aide de techniques de data mining est souvent une tâche difficile. Cependant, cette tâche peut être simplifiée par une réduction du nombre de variables qui pourraient être considérées comme équivalentes. Le but de ce chapitre est de décrire une nouvelle méthode pour réduire le nombre de variables d'un grand ensemble de données. L'ASI qui construit des règles d'association à l'aide d'une mesure, plus puissante que la probabilité conditionnelle, est utilisée pour détecter des variables quasiéquivalentes. La technique a plus d'avantages que l'analyse traditionnelle des similarités.
L'analyse statistique implicative traite des tableaux sujets x variables afin d'extraire règles et métarègles statistiques entre les variables. L'article interroge les structures obtenues représentées par graphe et hiérarchie orientés afin de dégager la responsabilité des sujets ou des groupes de sujets (variables supplémentaires) dans la constitution des chemins du graphe ou des classes de la hiérarchie. On distingue les concepts de typicalité pour signifier la proximité des sujets avec le comportement moyen de la population envers les règles statistiques extraites, puis de contribution pour quantifier le rôle qu'auraient les sujets par rapport aux règles strictes associées. Un exemple de données réelles, traité à l'aide du logiciel CHIC, illustre et montre l'intérêt de ces deux concepts.
Dans ce chapitre, nous étendons la notion classique de quasi-implication à des règles de règles ou R-règles. Les prémisses et les conclusions peuvent devenir des règles. Une nouvelle mesure statistique, basée sur l'intensité d'implication, est définie pour évaluer la significativité des R-règles sur un ensemble de données. Nous montrons comment organiser ces règles en une nouvelle structure combinatoire, la hiérarchie orientée, qui est inspirée de la classification hiérarchique classique. Un algorithme incrémental est développé pour trouver la classe de R-règles la plus significative. Une illustration est donnée à partir d'un exemple réel.
Nous présentons ci-dessous une extension de l'analyse statistique implicative à des variables numériques et certaines variables symboliques, d'une part prenant leurs valeurs sur des intervalles, d'autre part à valeurs intervalles. Ainsi, nous déterminons un ensemble de sous-intervalles optimaux permettant de calculer la qualité la meilleure possible de l'implication de réunions de ces sous-intervalles relatifs à une variable vers une autre.
Ce chapitre présente une vue d'ensemble de la théorie de l'Analyse Statistique Implicative qui fournit une méthode d'analyse de données conçue pour extraire et struturer des quasi-implications. A l'origine développée par Gras (Gras R., 1979) pour s'appliquer à la didactique des mathématiques elle a été élargie dans le cadre du data mining. Nous en présentons ici la charpente et en donnons les développements récents