DR
En santé, l’intelligence artificielle est prometteuse. Mais pour l’utiliser, mieux vaut avoir en tête ses limites, a prévenu le Dr Xavier Alacoque, lors de la 28e édition des Rencontres Infirmières en Oncologie (RIO) organisées par l’Association Française des Infirmièr(e)s de Cancérologie (AFIC).
« IA et oncologie, une révolution en marche ». Tel était le titre de l’intervention de Xavier Alacoque, directeur des données et de l’IA à l’Institut Universitaire du Cancer de Toulouse (IUCT) - Oncopole. L’objectif de l’expert : « Donner les clés », pour faire comprendre en quoi l’IA nous fait entrer dans « une nouvelle ère de la recherche et une nouvelle ère de l’exercice de nos soins. » Mais aussi expliquer « comment faire pour s’en emparer avec une attitude raisonnée. »
« ON NE POURRA PAS PASSER OUTRE »
En santé, les développements de l’IA sont nombreux, liste-t-il : en matière de productivité des soins, d’optimisation administrative, d’amélioration de l’expérience patient, de la qualité du service rendu, de recherche, etc. En oncologie, l’idée est de l’utiliser en prévention, dans les processus diagnostiques, d’annonce, d’accompagnement, de surveillance…
Pour l’instant, dit-il, se référant à l’Académie de médecine, les systèmes d’IA générative sont utilisés « surtout dans l’imagerie, la recherche de nouveaux médicaments, en recherche, en biologie et en santé. » Si l’usage n’est pas généralisé en vie réelle (pas de percée dans l’aide au diagnostic, utilisation sporadique à l’hôpital), on ne pourra « passer outre » son déploiement.
Une raison : le striatum, structure nerveuse subcorticale, qui active le circuit de la récompense avec cet usage, car l’espèce humaine souhaite aller « au plus simple, à l’économie, au plus rewarding (gratifiant). »
Comme l’IA va « continuer à s’implanter dans nos pratiques », les professionnels de santé doivent « être responsables face à ses risques et limites. » Car si les utilisateurs devraient y être formés selon l’article 4 du règlement européen sur l’IA, « ce n’est pas fait du tout » et, en santé, « ça devrait être une priorité, mais ce n’est pas fait non plus. »
« GARDER SON ESPRIT CRITIQUE »
Parmi les risques, il en pointe un pour la confidentialité : « tout ce que vous mettez dans le prompt est remonté au niveau du modèle international. » Pour l’éviter, lui qui est au commandement cyber du ministère de l’Intérieur recommande d’adopter la classification des données « héritée des militaires » : C1 (interne), C2 (confidentiel), C3 (restreint, secret).
Il met aussi en avant un risque pour la sécurité et la propriété intellectuelle. Car dès lors qu’un utilisateur met une idée dans un grand modèle de langage, il en perd « la paternité et la propriété intellectuelle. » Il y a également un risque « hallucinatoire » : quand le modèle « ne trouve pas de réponse à la question, il en fait quand même une pour caresser dans le sens du poil. »
Autre risque : le biais : si le dataset (jeu de données) est orienté, les réponses aussi. Il soulève l’enjeu à avoir des « IA explicables », qui soient capables de dire “J’ai pris cette décision, parce que…”, « ça arrive ! », annonce-t-il.
Enfin, il souligne le risque cognitif : « plus on utilise l’IA, moins on fait travailler le cerveau, et moins on garde son expertise. » D’où la nécessité de « la garantie humaine » : chacun a le « devoir » de croire ou pas l’information, la recommandation donnée par le modèle, afin de l’appliquer ou non. Pour le Dr Alacoque, il ne s’agit pas de faire peur, juste d’inviter à utiliser l’IA « avec éthique » et « son esprit critique. »
Pauline Machard
Toutes nos formations de santé :
- Gestes et soins d’urgence
- Douleur
- Expertise soignante et relations dans le soin
- Management de la qualité et des risques
- Droit et éthique
- Gérontologie et gériatrie
- Santé mentale et handicap
- Santé, qualité de vie et des conditions de travail
- Incendie et sécurité au travail
Feuilleter le catalogue
Demander le catalogue en version pdf à contact@sauvgard.com