Détection du cancer par les médecins altérée après dépendance à l'IA
L’intégration de l’intelligence artificielle dans les domaines professionnels a longtemps été présentée comme une voie vers la « montée en compétences » ou la « reconversion » – améliorant les capacités humaines ou formant à de nouveaux rôles. Pourtant, une étude récente présente un contre-récit troublant : le potentiel de « déqualification », où la dépendance à l’IA pourrait en fait diminuer la compétence humaine. Une nouvelle recherche publiée cette semaine révèle que les médecins qui employaient régulièrement l’IA pour la détection du cancer lors des coloscopies ont connu un déclin significatif de leur capacité à identifier les croissances cancéreuses lorsque l’assistance de l’IA n’était pas disponible.
L’étude, présentée dans la revue The Lancet Gastroenterology & Hepatology, a été menée par une équipe internationale de professionnels de la santé et de chercheurs de pays tels que la Pologne, la Norvège, la Suède, le Royaume-Uni et le Japon. Son objectif principal était d’étudier comment une exposition continue à l’IA pourrait influencer la performance des médecins. Pour ce faire, les chercheurs ont évalué comment les endoscopistes – des spécialistes médicaux effectuant des coloscopies – se comportaient lorsque l’IA n’était pas utilisée, après qu’ils se soient habitués à un soutien fréquent de l’IA.
Les résultats étaient préoccupants. Les médecins qui utilisaient régulièrement l’IA pour les procédures de coloscopie ont montré un taux de détection inférieur d’environ six points de pourcentage lorsqu’ils étaient tenus d’effectuer la tâche indépendamment, sans guidage de l’IA. L’étude a suivi des médecins dans quatre centres d’endoscopie en Pologne, qui faisaient partie d’un programme d’essai explorant l’application de l’IA en coloscopie pour la prévention du cancer.
Cette recherche soulève des questions critiques sur l’utilisation judicieuse de l’IA dans les soins de santé, en particulier pour discerner quand elle aide véritablement et quand elle pourrait involontairement causer des dommages. Elle survient au milieu de préoccupations plus larges concernant la fiabilité des modèles d’IA médicale. Tout récemment, par exemple, un modèle d’IA de santé d’une grande entreprise technologique aurait potentiellement « halluciné » une partie du corps, alimentant davantage les discussions parmi les professionnels de la santé sur la trajectoire future de l’intégration de l’IA dans l’industrie. Alors que l’IA continue de pénétrer des domaines sensibles comme la médecine, il sera primordial de s’assurer que ces outils augmentent plutôt qu’ils n’érodent l’expertise humaine.