IA : les patients s’emparent du savoir

DOSSIER | « IA & Santé » (3/5). Longtemps, la médecine a été le pré carré des sachants : ceux qui avaient fait 10 ou 15 ans d’études, parlaient un langage technique, et détenaient seuls les clés du diagnostic. Un univers intimidant, souvent inaccessible au commun des mortels. Mais l’arrivée des intelligences artificielles génératives change la donne : désormais, tout un chacun dispose d’un médecin de poche, disponible 7j/7 et 24h/24 pour répondre à ses questions, comprendre ses symptômes et calmer ses angoisses. Pour le meilleur… ou pour le flou.
Lire aussi :
Solliciter une IA faute d’obtenir un rendez-vous chez son médecin
Explications de pathologies, interprétation du jargon médical, recommandations personnalisées, évaluation des symptômes… L’organisation France Assos Santé, qui regroupe une centaine d’associations agissant pour défendre les intérêts des patients et des usagers de santé, recense deux grands cas d’utilisation de l’IA du côté des patients. Ils peuvent s’en servir pour :
- Obtenir des informations génériques sur une maladie, un médicament, un sujet de prévention. Dans ce cas, l’IA générative peut permettre de « traduire » un jargon médical complexe et ainsi mieux faire le lien entre la production scientifique et le grand public.
- Obtenir un pré-diagnostic pour des soins non-programmés : du petit problème de santé à un potentiel risque vital. Ici, le patient inquiet renseigne sa situation pour savoir dans quelle mesure il doit s’inquiéter et quelles actions entreprendre.
« Dans ce cas-là, le patient est confronté à une double incertitude : il n’est pas médecin et ne sait donc pas si ce qu’il a est grave. Il a besoin de réponses rapidement. Mais en parallèle, on est dans un système de santé complexe : il ne trouve pas de créneau de médecin généraliste et sait qu’il ne faut pas encombrer les urgences », résume Arthur Dauphin de France Assos Santé. Aussi, la tentation de solliciter l’IA est grande…
« J’ai beaucoup utilisé ChatGPT pour comprendre mes analyses sanguines »
Atteinte d’une maladie auto-immune lui imposant de réaliser des analyses sanguines fréquemment, Lila, 32 ans, s’est retrouvée à accumuler les résultats d’analyse inquiétants, sans les comprendre. Cette conseillère en clientèle de 32 ans a alors décidé de transmettre directement ses analyses de sang à l’agent conversationnel développé par OpenAI, pour obtenir des réponses. « J’envoyais mes résultats à l’IA, et elle m’aidait à comprendre ce que signifiaient les taux anormaux. Ça m’a rassurée, ça m’a donné des pistes. » Si elle souligne les limites de l’outil, les erreurs possibles et les risques de dérives, Lila estime que l’agent conversationnel lui a permis de mieux vivre cette période angoissante. « Il ne remplace pas un médecin, mais il répond, il n’expédie pas tes questions, contrairement à certains cabinets qui reçoivent à la chaîne ».
Aujourd’hui stabilisée, elle n’utilise quasiment plus l’outil, mais ne regrette pas de lui avoir transmis toutes ses données de santé : « Quand on reçoit des résultats anormaux et qu’on n’a pas de retour médical avant dix jours, c’est difficile de ne pas chercher à comprendre. ChatGPT, lui, répond tout de suite. C’est la facilité et la rapidité. Je comprends que ce soit tentant de tout lui demander, surtout quand notre système de santé est saturé. »
« La problématique d’accès aux médecins reste compliquée dans beaucoup de territoires, la situation de cette patiente est tout à fait légitime », jauge Arthur Dauphin. Le chargé de mission Numérique en santé pour France Assos Santé rappelle cependant que la CNIL déconseille de donner trop d’informations personnelles identifiantes et d’informations de santé à ce type d’outils.
Du patient au consommateur de soins
« Le patient qui donne ses analyses de sang à l’IA n’est pas dans la posture d’un patient qui s’adresse à un expert pour, patiemment, recevoir ses lumières et décider avec lui sur un mode réflexif. Il est dans une posture de consommateur qui attend un service, si possible gratuit, et qui a pris l’habitude de pouvoir réclamer, retourner le produit s’il n’est pas content… », relève Sonia Desmoulin, directrice de recherche CNRS au laboratoire Droit et changement social. Pour cette docteure en droit, le recours à l’IA pour des questions médicales s’inscrit dans une problématique plus large : « Le problème, c’est qu’on aura beau alerter les personnes sur la manière dont les IA génératives sont entraînées, les failles du système… Certaines personnes continueront à avoir des comportements irrationnels, en demandant à Chat GPT s’ils doivent sortir avec ce garçon, porter un pantalon bleu ou noir… Et lui poser des questions médicales ». De quoi donner raison à Mark Zuckerberg qui estimait déjà en 2010 que le concept de vie privée était une « norme sociale dépassée ».
La chercheuse, comme de nombreux autres de nos interlocuteurs, déconseille d’utiliser Chat GPT, Claude, Mistral, Gemini, Le Chat ou toute autre IA générative pour des questions médicales, car ces outils n’ont tout simplement pas été conçus pour cela : « Il faut prendre conscience que c’est une machine statistique : la réponse reflète forcément les données avec lesquelles elle a été entraînée, et on n’a pas les moyens de savoir si les bonnes données ont été utilisées ». Pour France Assos Santé, le développement de l’IA met en lumière un besoin criant d’éducation au numérique, pour faire comprendre que tout ce qui sort d’une IA n’est pas forcément vrai. Car comme le dit justement Rabelais : « science sans conscience, n’est que ruine de l’âme »…
Quand Chat GPT fait ressortir les moins bons côtés de l’humain
Appétence pour une réponse immédiate prétendument individualisée, attrait pour la nouveauté, impatience, détestation de l’incertitude et du doute… « Il y a un modèle économique derrière Chat GPT, et ce modèle exploite nos biais cognitifs », rappelle Sonia Desmoulin. Difficile de percevoir ce business model lorsqu’on « converse » simplement avec un assistant numérique depuis son canapé, mais l’utilisateur d’IA génératives bénéficie bien d’une prestation de services qui repose sur l’exploitation de ses questions et sa satisfaction quant aux réponses obtenues, pour entraîner toujours plus le modèle et concevoir des outils payants toujours plus performants. Sans parler de la potentielle réutilisation des données collectées pour des modélisations sociopolitiques ou des stratégies marketing…
C’est d’ailleurs l’une des raisons qui a poussé Lila à arrêter d’utiliser Chat GPT : « Je n’en ai plus besoin parce que maintenant j’arrive à lire mes analyses sanguines, mais aussi parce que j’ai peur de la récupération politique qui pourrait être faite de cet outil surpuissant. Je n’ai pas envie de me faire manipuler sans m’en rendre compte ». La jeune femme souligne également qu’à force de s’en servir et de maîtriser le sujet, elle se rendait aussi de plus en plus compte des inexactitudes des réponses, voire des erreurs.
Quel rôle faisons-nous réellement jouer aux IA ?
« Ce qui interroge, c’est notre relation à l’outil : qu’est-ce qu’on fait jouer comme rôle à l’IA ? On pourrait évoquer des pièces qu’on jette en l’air, Madame Irma, je pense qu’il y a quelque chose de l’ordre de la pensée magique ». Avec l’IA générative, les gens ont l’impression d’avoir « gratuitement » les réponses à toutes leurs questions, sans effort. « C’est cette relation-là qui doit nous interroger : le rapport que nous entretenons tous au temps (la réponse instantanée), aux efforts (la réflexion, la hiérarchisation, la vérification), et à l’incertitude », estime la chercheuse.
Ce que révèle l’essor des IA dans la sphère santé, ce n’est pas seulement un changement d’outil, mais une mutation du rapport à l’information, à l’autorité médicale… et à soi-même. « L’IA n’est pas un mal en soi, le problème c’est notre rapport à cet outil. Cet outil a des possibilités formidables mais peut aussi nous laisser aller vers nos moins bons penchants », appuie Sonia Desmoulin.
IA : à petite dose et en complément de l’humain
Si tout n’est pas bon dans l’IA, il ne faudrait pas non plus jeter GPT avec l’eau du bain. Utilisée à bon escient - en tenant compte de ses limites - l’IA générative peut permettre d’appréhender une problématique de santé avant d’en parler avec un professionnel. Éclairer sur le caractère urgent d’une situation ou apporter une réponse empathique pour calmer les angoisses. « Chez France Assos Santé, nous ne sommes pas foncièrement contre l’IA. Dans un certain nombre de cas, on trouve des réponses de plus en plus fines et nuancées. Et on n’a pas d’exemple de personnes dont le pronostic vital aurait été engagé parce qu’elle aurait suivi le conseil erroné d’une IA », rappelle Arthur Dauphin.
La santé restant un sujet imminemment humain, il apparaît peu probable qu’une prise en charge médicale se fasse un jour à 100% par IA. Pour autant, il y a fort à parier que l’IA vienne de plus en plus compléter certaines parties du parcours de santé, comme nous le verrons dans notre prochain épisode.