IA : le chercheur Sébastien Konieczny récompensé pour ses travaux sur l'intelligence artificielle

Fils de mineur, né à Marles-les-Mines, il y a 50 ans, Sébastien Konieczny est directeur de recherches CNRS au sein du Centre de Recherches en Informatique de Lens, CRIL, où il travaille depuis 2004. Il vient d'être récompensé par le titre EurAI Fellow 2024, une distinction pour l'ensemble de ses travaux sur l'Intelligence Artificielle que trois à quatre chercheurs européens obtiennent par an.

L'essentiel du jour : notre sélection exclusive
Chaque jour, notre rédaction vous réserve le meilleur de l'info régionale. Une sélection rien que pour vous, pour rester en lien avec vos régions.
France Télévisions utilise votre adresse e-mail afin de vous envoyer la newsletter "L'essentiel du jour : notre sélection exclusive". Vous pouvez vous désinscrire à tout moment via le lien en bas de cette newsletter. Notre politique de confidentialité

"L'informatique, c'est très large, il y a plein de problématiques", attaque l'ancien ingénieur de Polytech Lille qui précise, que l'une d'entre elles est l'Intelligence Artificielle, IA, "très large", elle aussi. Et avec de nombreuses problématiques,"également". Comme celle sur le "raisonnement, sur le fait de savoir comment prendre de bonnes décisions à partir des informations que l’on a à notre disposition, et notamment en présence d'informations contradictoires ou conflictuelles".

Par exemple, si une nouvelle maladie apparait, et que certains docteurs disent ce médicament est efficace et d’autres disent qu’il ne l’est pas. "Pour des décisions où il y a une réponse correcte, même si on ne la connait pas encore (est-ce que le traitement est efficace ou pas sur cette maladie ?), la question, c’est : comment fait-on pour prendre la bonne décision ?", explique le scientifique.

Une partie de mes recherches, porte sur la fusion de l'information : comment je prends toutes ces informations que différentes personnes m'ont données. Il va y avoir des choses complémentaires. Mais il va y avoir aussi des conflits et savoir qui je dois écouter et qui je ne vais pas écouter. 

Si son travail est théorique, Sébastien Konieczny et son équipe ne travaillent pas sur une application particulière, mais plutôt sur le raisonnement, l'épistémologie, en quelque sorte ; les applications concrètes sont multiples.

En médecine, comme son exemple le montre, mais aussi dans la vie de tous les jours. Imaginez une recherche internet : "Beaucoup de sites peuvent vous répondre. Ils vont vous donner une réponse partielle et surtout parfois, ils se contredisent. Certains disent des choses vraies, d'autres, fausses. Ce que l’on fait peut donc améliorer les réponses sur internet. À l'heure actuelle où on voit la propagation de fake news, où on voit des gens qui produisent ça à la chaîne, et où on a de plus en plus de mal à lutter contre ces fausses informations, nous mettons en place des analyses pour savoir si quelque chose est vrai ou faux".

Distingué pour l'ensemble de ses travaux, Sébastien Konieczny réagit : "Ça fait plaisir d'avoir son nom associé à la liste des collègues qui ont apporté des contributions majeures en IA. Je suis honoré par cette distinction. Mais j'insiste sur le fait que la majorité de ces travaux, je les ai faits en collaboration avec des collègues de mon laboratoire ou d’autres pays".

Théorème de Condorcet (XVIIIe siècle)

D'autant plus que la distinction, honorifique, est accordée à 3% des chercheurs en Europe. Trois ou quatre personnes l'ont par an. Son laboratoire de recherche se compose de 60 personnes. "Mon équipe est composée d'une dizaine de personnes, mais nous collaborons également avec des chercheurs du Japon, du Portugal et du Royaume-Uni par exemple."

"Ce théorème émet l’hypothèse que tout le monde a la même fiabilité, ce qui n’est généralement pas le cas dans la vie de tous les jours. Pour se rapprocher de la réalité, nous avons proposé des méthodes qui tentent d’estimer la fiabilité de chaque source en comparant leurs réponses". Résultat : une nouvelle approche qui permet de mieux identifier la vérité scientifique.  

"L'IA c'est une technologie puissante qui peut servir pour faire des choses bien ou mal. Potentiellement, elle peut être dangereuse. Les robots ne sont pas les dangers, les vrais dangers sont les capacités de surveillance de la population, de manipulation de l'opinion, la production et diffusion de fake news. Ce sont des choses que l'IA sait déjà faire ou fera bientôt. Effectivement, c'est important de réguler l'IA et on essaie de le faire pour le moment en Europe avec la RGPD et l'IA act (1) plus récemment où on essaie de réguler l'IA pour qu'elle ne soit pas au service de choses trop mauvaises", reprend l'expert. 

IA statistique et IA symbolique

Exemple : pour octroyer un prêt à quelqu'un ou pas. La banque se demande si la personne est en capacité de rembourser ou pas : le métier, le revenu, les dépenses comptent. On peut utiliser une IA statistique qui ne se justifie pas. Mais elle risque de prendre en compte le sexe de l'individu et, d'écarter une femme, anormalement moins bien rémunérée qu'un homme à qualifications égales. "En revanche, l'IA symbolique peut émettre la règle suivante, ne pas dire non à cette cliente pour la raison que c'est une femme. Et l'IA symbolique permet cette espèce de régulation", explique le chercheur.  

Je pense que l'avenir de l'IA, c'est une combinaison de la puissance des réseaux de neurones et l'aspect explicatif des approches symboliques. Ça sera la prochaine grande découverte.

Sébastien Konieczny

Les approches IA à base de réseau de neurones (c'est-à-dire l'IA statistique) sont nécessaires pour le langage (ChatGPT) ou les images, mais sont très réduites au niveau de l'explicabilité et de la certification par rapport aux lois. Mais, l'IA symbolique permet cette justification. 

"Je pense que l'avenir de l'IA, c'est une combinaison des deux. La puissance des réseaux de neurones et l'aspect explicatif des approches symboliques. C'est quelque chose qu'on ne sait pas faire actuellement. Ça sera la prochaine grande découverte. Et cela permettra d'avoir les avantages des deux approches".

Passionné par son métier, notre chercheur, est à l'intersection avec des problèmes, à la fois philosophiques, épistémologiques et scientifiques. "On est tous les jours à l'école", conclut-il le regard pétillant. 

(1) L'IA Act vise à garantir la sécurité des biens et des personnes, ainsi que la protection des droits fondamentaux comme la protection de la vie privée et des données personnelles, la non-discrimination, la transparence, la responsabilité ou encore le respect des valeurs démocratiques européennes.

Tous les jours, recevez l’actualité de votre région par newsletter.
Tous les jours, recevez l’actualité de votre région par newsletter.
Veuillez choisir une région
France Télévisions utilise votre adresse e-mail pour vous envoyer la newsletter de votre région. Vous pouvez vous désabonner à tout moment via le lien en bas de ces newsletters. Notre politique de confidentialité
Je veux en savoir plus sur
le sujet
Veuillez choisir une région
en region
Veuillez choisir une région
sélectionner une région ou un sujet pour confirmer
Toute l'information