La contribution du flou à l'explicabilité de l'intelligence artificielle


Après avoir introduit et développé le concept de sous-ensemble ?ou en 1965, Lot? A. Zadeh[3] a rapidement proposé de représenter différentes formes de langage naturel, en particulier par l'intermédiaire de notions telles que la granulation ?oue de l'information, les contraintes ?oues, et bien sûr le concept de variable linguistique, dé?ni comme une variable dont les valeurs sont des mots ou des énoncés d'un langage naturel ou arti?ciel. C'est avec l'introduction du concept de Computing With Words [4], en 1996, qu'il a proposé d'utiliser des mots et non plus des nombres pour le calcul et le raisonnement. Indépendamment de cet environnement, la DARPA a lancé le mouvement de l'Explainable Arti?cial Intelligence vingt ans plus tard, en 2016. Il prône des modèles d'intelligence arti?cielle, certes ef?caces en termes d'apprentissage, mais explicables, interactifs et facilement appréhendables par l'utilisateur. La capacité des systèmes intelligents de comprendre le langage naturel, au moins sous une forme simple, et d'interagir avec les utilisateurs par l'intermédiaire de mots, est évidemment une composante de leur explicabilité. L'utilisation d'une représentation ?oue des connaissances dans les systèmes intelligents apporte diverses solutions pour les rendre compréhensibles et interprétables. Nous passerons en revue diverses facettes d'une telle représentation , qui contribuent à construire des systèmes intelligents répondant aux attentes de l'Explainable Arti?cial Intelligence, et qui vont au-delà des systèmes à base de règles ?ous classiques.