ChatGPT : "des hommes politiques pourraient lui confier des décisions" estime Nicolas Asher, chercheur à l'ANITI

Depuis plusieurs semaines, des enseignants s'arrachent les cheveux face à l'usage de ChatGPT dans les devoirs de leurs étudiants. Le point sur ce logiciel avec Nicolas Asher, directeur de recherche au CNRS et directeur scientifique au Artificial and Natural Intelligence Toulouse Institute (ANITI).

C'est sûrement devenu "le chat" le plus célèbre d'internet. ChatGPT, le logiciel d'intelligence artificielle, lancé fin novembre, par une start-up californienne, peut formuler des réponses détaillées sur quasiment n'importe quel sujet.

Cet outil a été "entraîné pour retenir les mots, à chaque fois qu'il interagit avec un humain, il se perfectionne", explique Nicolas Asher, directeur de recherche au CNRS et directeur scientifique ANITI à Toulouse.

Ainsi, grâce aux données trouvées sur Internet, il est capable d’écrire une chanson, de répondre à une dissertation de philosophie, de vulgariser une notion scientifique ou encore de créer une recette, le tout en seulement quelques secondes. 

De quoi en laisser plus d'un béat sur les réseaux sociaux : 

Un enjeu dans l'enseignement 

Avec ces capacités, le logiciel fascine, autant qu'il inquiète. A Lyon, un enseignant, s’est aperçu que la moitié de ses élèves inscrits en master avaient fait appel à ChatGPT pour rédiger l’un de leurs devoirs.  Sept d’entre eux ont présenté les mêmes copies, révèle Le Progrès. Non pas sur le fond, mais sur le déroulé de l’argumentaire. Les mêmes constructions grammaticales, le même raisonnement.

Ces situations pourraient-elles s'enraciner, dans les universités françaises ? Pour rappel, Toulouse est la 4e ville avec le plus d'étudiants en France. Mais elle est aussi le site d'accueil Artificial and Natural Intelligence Toulouse Institute (ANITI) et donc la place forte de l'intelligence artificielle en France.

ChatGPT est donc capable d’élaborer une dissertation sur n’importe quel sujet, de la physique quantique à la littérature du 16e siècle, et particularité il génère des textes "uniques". Il est donc impossible pour deux étudiants de rendre le même devoir, et d'être accusés de plagiat.

Mais Nicolas Asher précise : " Nous avons des chercheurs dans notre institut qui étudient la créativité. Ils ont constaté que de ce point de vue là, les réponses du logiciel étaient vraiment banales."  

Il ajoute : 

 Honnêtement pour un devoir de niveau secondaire ChatGPT c'est suffisant, mais un étudiant en master ça va être une copie très limitée. Au niveau argumentation, compréhension profonde de la langue, le logiciel a des grosses lacunes.

Nicolas Asher, directeur de recherche au CNRS et directeur scientifique ANITI à Toulouse.

Comme Wikipédia ou Google, dans les années 2000, ChatGPT canalise les mêmes craintes.  Aujourd’hui, toutes les informations sont à portée de main. Il faudra donc que l’enseignement s’adapte aux outils et que les élèves apprennent à s’en servir et à détecter les risques. 

Pas de source, pas de fiabilité : les limites du logiciel 

C’est un générateur de texte qui marche particulièrement bien, mais il ne garantit pas la véracité des informations fournies. Si vous posez des questions sur le climat, vous aurez des réponses qui ne sont pas climato sceptiques. Mais sur d’autres sujets, moins présents, ça peut donner lieu à des Fake News. 

Il ne connait rien à la réalité, il met sur un pied d’égalité un blog d’extrême droite et France 3 par exemple.

Nicolas Asher, directeur de recherche au CNRS et directeur scientifique ANITI à Toulouse.

De plus ChatGPT a été conçu en  "modèle fermé", impossible de savoir sur quelles données il s'est entraîné. Nicolas Asher précise : "S'il s'est entrainé sur des données mauvaises, il va les ressortir. On ne peut pas vraiment savoir si quelqu'un a voulu aussi orienter ses propos." 

Etant donné que le logiciel évolue avec les interactions humaines, il est difficile pour les scientifiques de l'appréhender. "A jour j ou à jour j + 1 son comportement a changé", ajoute le chercheur toulousain. 

Une enquête du Time parue ce mercredi 18 janvier révèle que la célèbre intelligence artificielle (IA),  a utilisé des travailleurs kényans, payés moins de deux dollars de l’heure afin d’améliorer sa modération et de limiter son contenu problématique. Abus sexuels, discours de haine, de violence… Les employés ont dû passer en revue des textes sortis des tréfonds du net afin de les classifier pour la machine. Un travail traumatisant.

Un danger pour l'humanité ? 

A long terme, le principal danger serait que certaines personnes estiment que le logiciel est capable de tout faire. Nicolas Asher explique :  "des hommes politiques pourraient confier des décisions au raisonnement de ChatGPT". Il ajoute : "nous sommes plus intelligents que lui, nous avons des millions d’années d'évolution"

Heureusement, nous serions encore loin du mythe du robot qui dépasse l’homme, le scientifique précise "un des grands chercheurs en IA espérait qu’on arrive à une machine qui a l’intelligence d’un chat. Le cerveau humain est bien plus complexe que tous ces outils." 

Il conclut : "Je crois que ce logiciel est intéressant, il y a du travail à faire pour comprendre ses capacités et ses limites. Je suis un peu sceptique pour son usage avec des partenaires industrielles, car il manque de transparence."

Tous les jours, recevez l’actualité de votre région par newsletter.
Tous les jours, recevez l’actualité de votre région par newsletter.
choisir une région
France Télévisions utilise votre adresse e-mail pour vous envoyer la newsletter de votre région. Vous pouvez vous désabonner à tout moment via le lien en bas de ces newsletters. Notre politique de confidentialité