Fils de mineur, né à Marles-les-Mines, il y a 50 ans, Sébastien Konieczny est directeur de recherches CNRS au sein du Centre de Recherches en Informatique de Lens, CRIL, où il travaille depuis 2004. Il vient d'être récompensé par le titre EurAI Fellow 2024, une distinction pour l'ensemble de ses travaux sur l'Intelligence Artificielle que trois à quatre chercheurs européens obtiennent par an.
"L'informatique, c'est très large, il y a plein de problématiques", attaque l'ancien ingénieur de Polytech Lille qui précise, que l'une d'entre elles est l'Intelligence Artificielle, IA, "très large", elle aussi. Et avec de nombreuses problématiques,"également". Comme celle sur le "raisonnement, sur le fait de savoir comment prendre de bonnes décisions à partir des informations que l’on a à notre disposition, et notamment en présence d'informations contradictoires ou conflictuelles".
Par exemple, si une nouvelle maladie apparait, et que certains docteurs disent ce médicament est efficace et d’autres disent qu’il ne l’est pas. "Pour des décisions où il y a une réponse correcte, même si on ne la connait pas encore (est-ce que le traitement est efficace ou pas sur cette maladie ?), la question, c’est : comment fait-on pour prendre la bonne décision ?", explique le scientifique.
Une partie de mes recherches, porte sur la fusion de l'information : comment je prends toutes ces informations que différentes personnes m'ont données. Il va y avoir des choses complémentaires. Mais il va y avoir aussi des conflits et savoir qui je dois écouter et qui je ne vais pas écouter.
Si son travail est théorique, Sébastien Konieczny et son équipe ne travaillent pas sur une application particulière, mais plutôt sur le raisonnement, l'épistémologie, en quelque sorte ; les applications concrètes sont multiples.
En médecine, comme son exemple le montre, mais aussi dans la vie de tous les jours. Imaginez une recherche internet : "Beaucoup de sites peuvent vous répondre. Ils vont vous donner une réponse partielle et surtout parfois, ils se contredisent. Certains disent des choses vraies, d'autres, fausses. Ce que l’on fait peut donc améliorer les réponses sur internet. À l'heure actuelle où on voit la propagation de fake news, où on voit des gens qui produisent ça à la chaîne, et où on a de plus en plus de mal à lutter contre ces fausses informations, nous mettons en place des analyses pour savoir si quelque chose est vrai ou faux".
Distingué pour l'ensemble de ses travaux, Sébastien Konieczny réagit : "Ça fait plaisir d'avoir son nom associé à la liste des collègues qui ont apporté des contributions majeures en IA. Je suis honoré par cette distinction. Mais j'insiste sur le fait que la majorité de ces travaux, je les ai faits en collaboration avec des collègues de mon laboratoire ou d’autres pays".
Théorème de Condorcet (XVIIIe siècle)
D'autant plus que la distinction, honorifique, est accordée à 3% des chercheurs en Europe. Trois ou quatre personnes l'ont par an. Son laboratoire de recherche se compose de 60 personnes. "Mon équipe est composée d'une dizaine de personnes, mais nous collaborons également avec des chercheurs du Japon, du Portugal et du Royaume-Uni par exemple."
"Ce théorème émet l’hypothèse que tout le monde a la même fiabilité, ce qui n’est généralement pas le cas dans la vie de tous les jours. Pour se rapprocher de la réalité, nous avons proposé des méthodes qui tentent d’estimer la fiabilité de chaque source en comparant leurs réponses". Résultat : une nouvelle approche qui permet de mieux identifier la vérité scientifique.
"L'IA c'est une technologie puissante qui peut servir pour faire des choses bien ou mal. Potentiellement, elle peut être dangereuse. Les robots ne sont pas les dangers, les vrais dangers sont les capacités de surveillance de la population, de manipulation de l'opinion, la production et diffusion de fake news. Ce sont des choses que l'IA sait déjà faire ou fera bientôt. Effectivement, c'est important de réguler l'IA et on essaie de le faire pour le moment en Europe avec la RGPD et l'IA act (1) plus récemment où on essaie de réguler l'IA pour qu'elle ne soit pas au service de choses trop mauvaises", reprend l'expert.
IA statistique et IA symbolique
Exemple : pour octroyer un prêt à quelqu'un ou pas. La banque se demande si la personne est en capacité de rembourser ou pas : le métier, le revenu, les dépenses comptent. On peut utiliser une IA statistique qui ne se justifie pas. Mais elle risque de prendre en compte le sexe de l'individu et, d'écarter une femme, anormalement moins bien rémunérée qu'un homme à qualifications égales. "En revanche, l'IA symbolique peut émettre la règle suivante, ne pas dire non à cette cliente pour la raison que c'est une femme. Et l'IA symbolique permet cette espèce de régulation", explique le chercheur.
Je pense que l'avenir de l'IA, c'est une combinaison de la puissance des réseaux de neurones et l'aspect explicatif des approches symboliques. Ça sera la prochaine grande découverte.
Sébastien Konieczny
Les approches IA à base de réseau de neurones (c'est-à-dire l'IA statistique) sont nécessaires pour le langage (ChatGPT) ou les images, mais sont très réduites au niveau de l'explicabilité et de la certification par rapport aux lois. Mais, l'IA symbolique permet cette justification.
"Je pense que l'avenir de l'IA, c'est une combinaison des deux. La puissance des réseaux de neurones et l'aspect explicatif des approches symboliques. C'est quelque chose qu'on ne sait pas faire actuellement. Ça sera la prochaine grande découverte. Et cela permettra d'avoir les avantages des deux approches".
Passionné par son métier, notre chercheur, est à l'intersection avec des problèmes, à la fois philosophiques, épistémologiques et scientifiques. "On est tous les jours à l'école", conclut-il le regard pétillant.
(1) L'IA Act vise à garantir la sécurité des biens et des personnes, ainsi que la protection des droits fondamentaux comme la protection de la vie privée et des données personnelles, la non-discrimination, la transparence, la responsabilité ou encore le respect des valeurs démocratiques européennes.