Rendez-vous à Limoges pour mieux comprendre l'Intelligence Artificielle

© Photo d'Alex Knight via Unsplash
© Photo d'Alex Knight via Unsplash

L’intelligence artificielle en santé, où en est-on ? Face à un sujet qui inquiète, le Centre Hospitalier Esquirol organise une conférence ce mercredi 11 juillet. Parmi les intervenants, David Gruson, membre de la chaire santé de Sciences Po et auteur d’un polar d’anticipation...
 

Par François Clapeau

David Gruson, ancien directeur d'hôpital et membre de la chaire santé de Sciences Po, vient de publier SARRA, une intelligence artificielle, un "polar bioéthique" sur l’IA. Entretien.
David gruson a écrit un polar d'anticipation sur l'IA / © Nouvelle génération
David gruson a écrit un polar d'anticipation sur l'IA / © Nouvelle génération
 

Il y a une rupture industrielle : de plus en plus d’acteurs sont capables de concevoir des applications pratiques.


Pourquoi parle-t-on de plus en plus d’intelligence artificielle ?


La période que l’on vit n’est pas forcément une période d’innovation technologique. Le cadre de l’intelligence artificielle a été posé depuis assez longtemps.
En revanche, il y a une rupture industrielle : de plus en plus d’acteurs sont capables de concevoir des applications pratiques, à partir du cadre général de l’intelligence artificielle. Dans le secteur de la santé, il y a déjà des solutions fonctionnelles.

 

Par exemple ?


L’Intelligence Artificielle, c’est simplement un dispositif artificiel d’aide à la décision, ou de décision par algorithme. L’algorithme est un outil mathématique, qui propose des orientations à partir d’un très grand nombre de données.

L’agence de sécurité sanitaire américaine a donné sa première autorisation officielle pour une intelligence artificielle de reconnaissance d’images.


Dans le champ de la santé, on travaille sur les examens de laboratoires, l’exécution des analyses biologiques, la dispensation de médicaments...

Et puis il y a le diagnostic médical lui-même.

En avril dernier, l’agence de sécurité sanitaire américaine a donné sa première autorisation officielle pour une intelligence artificielle de reconnaissance d’images.
On entraîne l’algorithme à reconnaître des clichés d’imagerie, pour essayer de repérer s’il y a les signes d’une pathologie.
L’utilisation qui a été autorisée par l’agence américaine est une solution de diagnostic des rétinopathies diabétiques. Une maladie de l’œil qui est causée par le diabète et qui concerne des dizaines de milliers de personnes en France.

On est sur des solutions fiables techniquement et qui sont appelées à se développer plus fortement dans les prochains mois.

 

Quelles seraient les applications de l'intelligence artificielle proches du quotidien des habitants de Nouvelle Aquitaine ?


Le déploiement de ces solutions peut apporter des gains majeurs pour l’accessibilité des soins.

On peut essayer de combiner des solutions de téléconsultation et d’intelligence artificielle, avec des consultations spécialisées ayant recours à un algorithme. Le médecin envoie des clichés numériques, et il obtient très rapidement un diagnostic spécialisé. C’est un domaine qui se développe notamment sur les mammographies.

Le déploiement de ces solutions peut apporter des gains majeurs pour l’accessibilité des soins.


Vous avez aussi des solutions mises en œuvre dans le télé-suivi de patients, dans le champ des maladies chroniques et métaboliques comme le diabète et qui permettent de mieux suivre la glycémie avec des gains en espérance de vie.  

Tout ceci est en phase de test, il n’y a pas eu de validation en France. Mais cela va sans doute venir assez vite, et c’est un des enjeux de la prochaine révision de la loi de bioéthique qui interviendra à l’automne.

 

La France a-t-elle du retard ?


On est dans un moment charnière.

Si la France appliquait ceinture et bretelles sur des questions de réglementation, l’innovation numérique en santé se développerait ailleurs, avec un effet de double pénalisation.
Une pénalisation à court terme, parce que ces solutions ne seraient pas accessibles pour les patients français ; et une pénalisation dans un deuxième temps : une fois la solution d’intelligence artificielle développée ailleurs, il y a fort à parier que les patients et les professionnels français en demanderaient l’importation, avec le risque de se voir imposer les conditions financières d’accès à ces solutions.

Le principe clé, c’est la notion de garantie humaine. Poser un principe général de supervision de l’algorithme, mais sans le définir trop précisément, pour ne pas bloquer l’innovation.
 


Votre livre est un roman d’anticipation. C'est un moyen de vulgariser le sujet pour mieux expliquer les risques ?


Ces enjeux ne doivent pas rester l’affaire de spécialistes, ils doivent être partagés avec le grand public. L’objet de SARRA, c’est d’essayer de faire prendre conscience que face à la technologie, il ne faut pas se mettre en position de refus ou de blocage ; sinon, on se mettrait à l’écart de tous les gains pour la prise en charge des patients.

Ce n’est pas un risque de domination de l’homme par la machine.


Mais il y a aussi des risques dont il faut prendre conscience.

Contrairement à ce qui est véhiculé, ce n’est pas un risque de domination de l’homme par la machine.
Il n’y a pas le début d’une preuve technique ou scientifique qu’un tel risque serait possible.

Ce sont des choses plus identifiées, et ciblées.

Le premier risque, c’est une forme d’évaporation de la capacité du patient à consentir au soin.
Si vous êtes patient et que l’algorithme vous propose une solution thérapeutique recommandée à 99% sur la base de centaine de milliers de cas, votre capacité à dire non existera peut-être toujours en droit, mais en pratique elle sera très réduite.
L’idée, c’est de mieux accompagner le patient dans son consentement au soin, pour l’aider à prendre du recul.

Le deuxième risque qui est décrit, c’est celui d’une minoration de la prise en compte de la personne, par rapport à la logique collective de l’algorithme.
L’algorithme traite des données en très grand nombre, et il donne des solutions basées sur l’intérêt du plus grand nombre.
Or il peut y avoir des situations dans lesquelles l’intérêt collectif ne correspond pas à l’intérêt individuel. C’était intéressant de se mettre dans le cas extrême d’une crise épidémique majeure où on peut avoir une tension très forte entre l’intérêt individuel et l’intérêt collectif, pour essayer de mesurer quelles pourraient être les techniques à mettre en place pour diminuer ce risque de minoration de la prise en compte des personnes.


La conférence "problématique éthique du développement de l'Intelligence Artificielle en santé, où en es-t-on ?" débutera à 18h au CH Esquirol, salle Bertran de Born.
L'entrée est gratuite mais l'inscription est obligatoire au 05 55 43 10 37.

 

Sur le même sujet

Noyade au lac de Carcans : quelles consignes de sécurité appliquer ?

Les + Lus