
L’IA médicale se déploie à grande vitesse. Mais soigne-t-elle vraiment mieux les patients ?
Les outils d’intelligence artificielle envahissent les hôpitaux depuis quelques années. Transcription automatique des consultations, analyse d’imagerie médicale, prédiction des risques patient : les cas d’usage se multiplient. Le problème, c’est qu’on déploie avant de vraiment savoir si ça marche.
Des outils précis, pas forcément utiles
C’est ce que soulèvent Jenna Wiens, informaticienne à l’Université du Michigan, et Anna Goldenberg de l’Université de Toronto dans une étude publiée dans la revue Nature Medicine. Leur constat est assez simple : la plupart des études disponibles mesurent la précision des outils, pas leur impact réel sur la santé des patients.
Ce n’est pas la même chose. Un outil peut très bien identifier correctement une anomalie sur un scanner tout en n’améliorant pas, en pratique, la prise en charge du patient. La chaîne entre le résultat de l’IA et la décision médicale finale reste une boîte noire dans la grande majorité des déploiements actuels.
Le cas concret des assistants de transcription
Prenons les outils de transcription automatique des consultations, souvent appelés « AI scribes » ou assistants d’écriture médicale. Ils enregistrent les échanges entre le médecin et le patient, puis génèrent un résumé structuré. Des solutions de ce type commencent à apparaître en France, portées notamment par des éditeurs de logiciels de santé comme Doctolib ou des startups spécialisées.
Les retours des médecins qui les utilisent sont globalement positifs : moins de charge administrative, plus de disponibilité pendant la consultation. Certaines premières études confirment une réduction de la fatigue professionnelle. Mais comme le note Wiens, personne ne sait encore si ces outils influencent la qualité des décisions cliniques, et dans quel sens.
Il y a une autre interrogation que peu de gens posent : ces outils habituent-ils les médecins (et surtout les futurs médecins en formation) à déléguer une partie du traitement cognitif de l’information ? La recherche en éducation a déjà montré que certains outils d’assistance modifient la façon dont on mémorise et analyse l’information. Appliquer ce raisonnement à la médecine n’a rien d’absurde.
Un déploiement qui va plus vite que l’évaluation
Les chiffres américains donnent une idée de l’ampleur du phénomène. Une étude publiée en janvier 2025 par Paige Nong de l’Université du Minnesota indique qu’environ 65 % des hôpitaux américains utilisaient déjà des outils d’IA prédictive. Parmi eux, seulement deux tiers évaluaient la précision de ces outils. Encore moins s’intéressaient aux biais potentiels.
En France, le contexte réglementaire est différent. Le marquage CE classe médical impose des exigences de validation plus strictes pour les dispositifs médicaux intégrant de l’IA. Mais en dehors du champ strictement réglementé, notamment pour les outils d’aide à l’organisation ou à la gestion documentaire, le déploiement avance sans cadre d’évaluation systématique.
Ce qu’on devrait exiger avant de généraliser
Wiens ne demande pas d’arrêter les déploiements. Elle demande qu’on évalue sérieusement l’effet de ces outils sur les parcours de soin, pas seulement leur taux de précision technique. Et que cette évaluation soit faite par des entités indépendantes des éditeurs, dans des contextes variés : types d’établissements, spécialités, profils de praticiens.
C’est une demande raisonnable. L’IA peut très bien améliorer certains aspects du travail médical. Mais « probable » et « démontré » ne sont pas synonymes, surtout quand il s’agit de santé.
L’enjeu n’est pas de choisir entre l’IA et pas d’IA. C’est de savoir précisément dans quels cas, pour quels usages et avec quels garde-fous elle apporte réellement quelque chose aux patients.
