En santé, toutes les IA ne se valent pas

DOSSIER | « IA & Santé » (2/5). Utilisé à tout va, le terme d’intelligence artificielle peut recouvrir différentes réalités. Autrement dit, il y a IA et IA. Avant de poursuivre cette enquête, il convient de s’attarder sur les différences fondamentales entre deux grands types d’IA : les IA génératives plébiscitées par le grand public qui bénéficient d’un boom médiatique, et les IA prédictives, davantage utilisées par les professionnels, plus discrètes mais plus fiables. Si les deux types d’IA reposent sur des modèles statistiques d’apprentissage automatique, leurs modes de fonctionnement et leurs cas d’usage diffèrent grandement.
Les IA prédictives ou algorithmes de traitement de données
Les intelligences artificielles prédictives fonctionnent sur un principe simple mais puissant : elles apprennent du passé pour anticiper l’avenir. Nourries par d’immenses bases de données, elles sont capables de repérer des régularités statistiques pour formuler des prédictions. Par exemple, si l’on compile 30 ans de données météorologiques à Lyon, associant températures, vent, ensoleillement et humidité, l’IA est capable de prédire la météo du lendemain, à partir des schémas récurrents observés les années précédentes.
Dans le domaine médical, le fonctionnement est similaire : une IA ayant été entraînée avec des milliers de radiographies annotées (présence ou non de cancer du sein, par exemple) pourra, face à une nouvelle image, évaluer la probabilité d’anomalie cancéreuse. L’IA pourrait ainsi analyser 100 radios en un temps record et en isoler 10 qui requièrent l’avis d’un expert humain.
« Il faut que les médecins sortent de l’émerveillement primaire face à l’IA »
Mais attention : ces IA ne posent pas de diagnostic avec certitude, elles donnent simplement des probabilités. Et leur efficacité dépend directement de la qualité et de la justesse des données qui leur ont été fournies. Si on les alimente mal, leurs prédictions deviennent biaisées. « Ce type d’IA est très prometteur mais dépend de la qualité des données et de leur étiquetage », appuie le Dr Jean-Luc Cannigia. Basé à la Réunion, ce médecin généraliste a d’abord eu une première vie en tant qu’ingénieur informatique pour Apple Computer. Il a gardé de cette expérience une forte appétence pour la technologie, qu’il s’efforce depuis de partager avec ses confrères. À ce titre, il a fondé iA4Med, un club d’échanges pour professionnels de santé autour de l’intelligence artificielle. Son but ? Apporter un éclairage scientifique sur les sous-jacents technologiques des IA du marché, pour aider les médecins dans leur pratique. « Il faut que les médecins sortent de l’émerveillement primaire face à l’IA, pour comprendre pourquoi et comment la machine sort tel ou tel résultat. De la même façon qu’un médecin doit avoir une compétence minimale pour comprendre le phénomène physique sous-jacent d’une IRM, d’un scanner ou d’un PETScan, pour prescrire cet examen à bon escient », ajoute le Dr Cannigia.
Si le fonctionnement de ces IA prédictives reste relativement opaque – le fameux effet « boîte noire » – elles n’en restent pas moins de précieux outils pour les professionnels, aussi bien médecins, chercheurs qu’ingénieurs. En imagerie médicale, par exemple, de plus en plus de dispositifs médicaux comportent ainsi une option « analyse d’image » basée sur l’IA, pour assister les professionnels de santé.
Les IA génératives : bluffantes de prime abord mais inadaptées au secteur de la santé
Les IA génératives appartiennent à la famille des « grands modèles de langage » (LLM en anglais, pour large language model) associée à une interface de chatbot dédiée. Textes, images, sons, vidéos… Ces modèles linguistiques sont entraînés sur un très vaste ensemble de données et sont capables de produire des textes, images ou vidéos à la demande. Pour ce faire, il suffit de leur demander la tâche à accomplir, via un prompt. Une fois le prompt reçu, l’IA générative traduit la requête en langage informatique, puis puise dans sa base des micro-ensembles de données susceptibles de répondre à la requête, les assemble et restitue alors une réponse plus ou moins cohérente.
Les limites des IA génératives
Premier problème : les IA génératives sont entraînées sur des bases de données essentiellement anglophones ou sinophones, - langues majoritaires sur Internet. Selon diverses estimations, le français ne représenterait par exemple que 2% de la base de données d’entraînement d’Open AI. Il y a donc déjà deux biais de traduction : celui en langage informatique, et celui de l’anglais. « Comme on dit en italien, Traduttore, traditore ; traducteur, traître », glisse avec malice le Dr Caniggia.
Au-delà du risque de perte de qualité et de sens dû à la traduction, c’est aussi la qualité des données utilisées qui est en cause. Les grands modèles de langage ont en effet été entraînés non pas sur des données scientifiques fiables, mais sur du tout-venant. Avec des personnes qui soutiennent que la Terre est plate ou que les vaccins sont responsables de l’autisme, pour ne citer que quelques contre-vérités. « Le principe du Big Data, sur lequel reposent les IA génératives, c’est de compenser le manque de qualité par de la quantité », explique la chercheuse Sonia Desmoulin. « Parmi la masse de données brassées par l’IA générative, il est probable que certaines soient fiables et que la réponse donnée ne soit pas délirante. Mais Chat GPT ne fera pas le tri entre un article publié en 1950 aux Etats-Unis, une publication sur un blog en Chine en 2024 et une recommandation de la Haute autorité de santé française ». Une des limites de l’outil repose donc également sur sa capacité à hiérarchiser ses sources d’informations.
In fine, l’IA générative ne sait que… Générer du texte de façon prédictive, en fonction du contexte et de ce qu’elle a puisé dans les millions de sources à sa disposition. « L’IA générative ne crée pas de connaissances, ça reste une suite probabiliste de mots - parfois très bien faite, parfois moins - mais ce n’est pas la vérité absolue », rappelle ainsi Arthur Dauphin, chargé de mission Numérique en santé pour France Assos Santé. « Ils font des phrases sans savoir, il n’y a aucune conscience derrière ces traitements algorithmiques ! C’est comme si vous donniez une conscience à Excel lorsqu’il vous donne la moyenne d’une colonne », renchérit Jean-Luc Caniggia.
Sans compter que la connaissance du monde de la plupart des IA s’arrête à une date précise, octobre ou juin 2024, selon les outils. En médecine, où la production scientifique est prolixe, cela peut poser un vrai problème pour quiconque souhaite bénéficier d’informations à jour.
Des IA génératives encore imparfaites, mais jusqu’à quand ?
Ces limites étant posées, il convient cependant de reconnaître que les outils d’IA génératives progressent à une allure folle. La différence entre le Chat GPT de 2023 et celui de 2025 est d’aucune mesure. À titre d’exemple, là où la version 2023 échouait à diagnostiquer une méningite, Chat GPT 4o y arrive avec brio aujourd’hui.
Et les progrès de l’IA, prédictive comme générative, ne sont pas près de s’arrêter. Il y a donc fort à parier pour que la population générale s’en serve de plus en plus, aussi bien pour des questions médicales que tout autre chose.
« Aujourd’hui, nous avons encore les moyens de savoir quand l’IA hallucine. Parce que nous avons toute l’expérience et le savoir-faire de personnes qui ont travaillé, réfléchi, écrit, sans Chat GPT. Mais qu’en sera-t-il demain ? », s’inquiète la chercheuse en droit Sonia Desmoulin, qui travaille actuellement sur les questions juridiques posées par l’utilisation de l’IA dans un cadre médical. C’est vrai ça, qui sait encore se repérer avec une carte et le nom des rues ? Qui retient encore les numéros de téléphone de ses proches ? Au fur et à mesure des progrès technologiques, nous perdons tous un certain savoir-faire qui devient de fait, obsolète. Dans une génération, saurons-nous encore réfléchir, rechercher des informations ou tout simplement rédiger quand l’IA le fera très bien à notre place ? Les questionnements face aux bouleversements induits par l’IA sont multiples, et les perspectives, vertigineuses.