Et si l'intelligence artificielle produisait des programmes politiques tout aussi crédibles que de réels candidats? Des chercheurs toulousains ont mené une étude sur ChatGPT. Les résultats montrent que les programmes produits par ce logiciel d'IA sont comparables à ceux élaborés par des hommes.
Régulation du trafic aérien, chirurgie à distance, conduite autonome, l'intelligence artificielle (IA) est déjà utilisée dans de nombreuses applictions pratiques ou industrielles mais elle pourrait aussi un jour s'inviter dans la politique. Une fiction en passe de devenir réalité.
Le ChatGPT peut produire des programmes politiques
Des chercheurs toulousains de l'université Paul Sabatier Toulouse III viennent de mener une étude sur le robot conversationnel ChatGPT lancé par OpenAI, société co-créée par Elon Musk et Sam Altman. Elle prouve que cette intelligence artificielle serait en capacité de produire des programmes politiques s'approchant fortement de ceux élaborés par les candidats à l'élection présidentielle de 2022.
Au LERAS (Laboratoire d'études et recherches appliquées en sciences sociales), ces chercheurs ont d'abord mené une première étude avec leurs logiciels sur les programmes des candidats à l'élection présidentielle.
Ils arrivent ainsi à trouver la structure des programmes et à prouver par exemple que les extrêmes ne se rejoignent pas dans leurs idées. Que Jean-Luc Mélenchon n'est pas d'extrême gauche mais bien de gauche.
Le robot puise dans la base de données d'internet
Ensuite ils ont demandé à ChatGPT de produire les programmes de chaque candidat de la dernière élection présidentielle alors que leurs discours n'étaient pas encore publiés. Le robot s'est débrouillé tout seul avec toute la base de données produites sur internet.
Le résultat est bluffant. Quand on analyse avec notre logiciel les programmes réels et qu'on les compare avec les programmes des candidats produits par le ChatGPT, leurs structures sont semblables. Il y a quelques différences mais les deux se ressemblent beaucoup. Emmanuel Macron, par exemple, apparait un peu plus social démocrate avec le robot qu'avec notre logiciel qui le voit plus à droite. Mais le discours est sensiblement identique. L'extrême gauche est représentée par Nathalie Arthaud et Philippe Poutou, alors que Jean-Luc Mélenchon est de gauche mais pas d'extrême gauche, dans les deux cas, avec l'intelligence naturelle et avec l'intelligence artificielle. On ne sait pas quelles masses de données le robot récolte, ni ce qu'il y a dans la base, c'est encore très opaque.
Pascal Marchand, professeur chercheur en sciences de l'information et de la communication à Toulouse III
Le robot ChatGBT n'a pas la capacité d'analyse
Conclusion : l'intelligence articielle est capable de reproduire des discours politiques très proches des discours réels.
"Je ne pensais pas que cela serait aussi pertinent", poursuit le chercheur Pascal Marchand. "Même si le robot parle à la troisième personne, les programmes politiques sont vraiment très proches".
En revanche l'étude prouve que ce robot n'a aucune analyse, ni réflexion sur la situation politique et sur les candidats. ChatGPT écrit un texte sans analyse.
C'est sa puissance à récolter des données considérables qui lui permet de construire un texte qui se rapproche d'un programme politique réel en adéquation avec les idées du candidat.
Doit-on s'en inquièter ?
De toute façon on ne pourra pas faire comme si cela n'existait pas. Je pense que l'intelligence artificielle va se développer rapidement. Il faut apprendre à vivre avec. Est-ce que les élèves et les étudiants peuvent les utiliser pour tricher à leurs examens ? La réponse est oui et ils l'utilisent déjà. Ils peuvent utiliser l'IA pour rédiger une dissertation et sans faute d'orthographe. En revanche, le robot ne pourrait pas analyser la pensée philosophique de Socrates par exemple. Ni prendre en considération les critiques. Pour les enseignants, il va falloir modifier les pratiques, à savoir s'atteler à plus observer l'analyse, la réflexion, la pensée et pas seulement la restitution des connaissances. Un enjeu de société.
Pascal Marchand, professeur chercheur en sciences de l'information et de la communication à Toulouse III
L'IA est le miroir de notre société
Un robot capable donc de reproduire des données et de les mettre en forme avec une introduction, un développement et une conclusion. Pour les candidats Marine Le Pen et Eric Zemmour, le robot a même rajouté des aspects à leurs programmes. Ce qui a surpris ces chercheurs.
Dans ces deux cas, celui de Marine Le Pen et de Eric Zemmour, le robot a rajouté à la fin : "Certains aspects de leurs programmes ont été critiqués sur leur faisabilité et leur légalité et font l'objet de débat. Pour Eric Zemmour l'ordinateur poursuit: "Il est important de souligner que ces positions politiques sont controversées et ont suscité des réactions vives dans l'opinion publique. Certaines de ses prises de position ont été qualifiées de racistes et discrimatoires par certains médias et personnalités politiques. Il est donc possible que son programme électoral soit modifié ou ajusté en fonction des débats et critiques qui pourraient émerger pendant la campagne électorale", ChatGBT.
C'est le robot qui le dit! C'est surprenant. Il ne peut pas produire une opinion, mais il peut visiblement les retranscrire et les synthétiser. Il n'est que le miroir de ce qui circule sur internet. Le robot est un miroir de notre société, y compris avec ses dérives.
Pascal Marchand, professeur chercheur en sciences de l'information et de la communication à Toulouse III
Développer l'esprit critique de nos enfants
Cette étude a aussi pour but de démontrer la puissance de l'intelligence artificielle qui pourrait être un outil de manipulation des masses, déjà le cas avec les fausses photos produites par l'IA qui ont circulé pendant les manifestations contre la réforme des retraites.
"Plutot que de s'en inquiéter, ni s'en affoler, il va falloir s'adapter mais développer un esprit plus critique vis à vis de l'intelligence artificielle. Il faut s'attaquer très vite à la pédagogie vis à vis de nos enfants. Car l'IA ne disparaitra pas et elle peut aussi produire des contenus exceptionnels", conclut Pascal Marchand, professeur chercheur en Sciences de l'Information et de la Communication à Toulouse III.
Le ChatGPT interdit en Italie
Une intelligence artificielle qui progresse mais qui inquiète. Au moins deux plaintes portant sur l’utilisation des données personnelles ont été déposées en France mardi auprès de la Commission nationale de l’informatique et des libertés (Cnil), l’organisme français de régulation des données personnelles, car le robot aurait crée de fausses informations.
Vendredi, l'Italie a été le premier pays à bloquer provisoirement le ChatGPT en raison notamment de craintes sur la sécurité des données personnelles, l’absence d’une note d’information aux utilisateurs, et l’absence de filtre pour vérifier l’âge des utilisateurs. Les autres pays européens sont aussi en train de mener une réflexion.