Une étude alerte : la dépendance à l'IA "déqualifie" les médecins

Theregister

L’intelligence artificielle transforme rapidement les soins de santé, promettant une précision diagnostique accrue et de meilleurs résultats pour les patients. Pourtant, une nouvelle recherche suggère un paradoxe préoccupant : si les outils d’IA peuvent considérablement améliorer les performances à court terme, une dépendance excessive pourrait subtilement dégrader l’expertise humaine, laissant potentiellement les professionnels moins compétents lorsque la technologie est absente.

Une étude récente publiée dans The Lancet Gastroenterology & Hepatology éclaire cette dynamique dans le domaine de l’endoscopie. La recherche s’est concentrée sur l’utilisation de la technologie de reconnaissance d’images par IA pour identifier et retirer les croissances précancéreuses, connues sous le nom d’adénomes, lors des coloscopies. Les premières conclusions ont confirmé le bénéfice de l’IA, montrant une augmentation de 12,5 % des taux de détection d’adénomes (ADR) lorsque la technologie était employée – un développement qui devrait sauver des vies. Cependant, l’étude a ensuite exploré ce qui s’est passé lorsque les endoscopistes, auparavant habitués à l’assistance de l’IA, ont effectué des coloscopies sans l’outil.

Les résultats ont été frappants. Basée sur des données provenant de quatre centres d’endoscopie en Pologne entre septembre 2021 et mars 2022, l’analyse a comparé les ADR des coloscopies standard, non assistées par IA, avant et après que les médecins aient été exposés à l’IA dans leurs cliniques. L’étude a révélé que le taux de détection des adénomes pour les coloscopies standard a significativement diminué, passant de 28,4 % avant l’exposition à l’IA à 22,4 % après, représentant une baisse absolue de 6,0 %. Cela a conduit les auteurs à conclure que “l’exposition continue à l’IA pourrait réduire l’ADR de la coloscopie standard non assistée par IA, suggérant un effet négatif sur le comportement de l’endoscopiste.”

Cette découverte fait écho aux avertissements émis par les organismes professionnels il y a des années. En 2019, la Société européenne d’endoscopie gastro-intestinale (ESGE) a mis en garde dans ses directives sur l’IA contre le risque de “déqualification” et de “dépendance excessive à l’intelligence artificielle” comme préoccupations significatives lors de la mise en œuvre. Les auteurs de l’article de The Lancet estiment que leur étude est la première à observer directement l’effet d’une exposition continue à l’IA sur les résultats cliniques, et ils espèrent qu’elle incitera à d’autres recherches essentielles sur l’impact plus large de l’IA sur les professionnels de la santé.

Le phénomène de “déqualification” dû à l’automatisation n’est pas nouveau. Il y a des décennies, la psychologue Lisanne Bainbridge a exploré ce concept dans son ouvrage de 1983, “Ironies de l’automatisation”, notant comment l’automatisation des processus industriels pouvait créer par inadvertance de nouveaux problèmes pour les opérateurs humains plutôt que de simplement résoudre les anciens. Plus récemment, des chercheurs de l’Université Purdue ont appliqué ce principe à des contextes modernes, suggérant que les concepteurs qui deviennent trop dépendants de l’IA pourraient également connaître un développement de compétences entravé.

Cette préoccupation s’étend au-delà des domaines médical et du design. En juin, des chercheurs du MIT ont publié une étude connexe liant l’utilisation des chatbots de modèles de langage étendu (LLM) à une activité cérébrale plus faible, suggérant un coût cognitif potentiel de la délégation excessive à l’IA. Arvind Narayanan, informaticien de l’Université de Princeton, a également exprimé des appréhensions concernant la déqualification des développeurs. Il distingue cela des craintes antérieures selon lesquelles les compilateurs élimineraient le besoin pour les programmeurs de comprendre le code machine, ce qui ne s’est jamais matérialisé. Au lieu de cela, Narayanan s’inquiète d’un scénario où un développeur junior dépendrait si fortement de l’IA pour le “codage intuitif” qu’il perdrait la capacité fondamentale de programmer de manière indépendante, manquant de compréhension des principes fondamentaux de la programmation.

Bien que l’IA promette une efficacité et une capacité sans précédent, ces études soulignent collectivement un défi critique : intégrer la technologie avancée d’une manière qui augmente réellement, plutôt que de diminuer par inadvertance, les compétences humaines et la pensée critique. La recherche en cours met en évidence la nécessité d’une approche nuancée de l’adoption de l’IA, une approche qui équilibre soigneusement l’assistance technologique avec l’impératif de maintenir et de cultiver l’expertise humaine.