Un conseil santé d'IA mène à une maladie rare: L'alerte ChatGPT

Theguardian

Un cas récent détaillé dans les Annals of Internal Medicine a lancé un avertissement sévère sur le rôle croissant de l’intelligence artificielle dans la santé personnelle, après qu’un homme de 60 ans ait développé une maladie rare et grave suite à une consultation malavisée avec une version antérieure de ChatGPT. Cet incident souligne les préoccupations croissantes des professionnels de la santé concernant le potentiel des chatbots IA à diffuser des conseils de santé inexacts ou dangereux.

Selon le rapport des chercheurs de l’Université de Washington à Seattle, le patient présentait un bromisme, également connu sous le nom de toxicité au bromure. Cette condition, autrefois un problème de santé publique important au début du 20e siècle, était historiquement liée à près d’une admission psychiatrique sur dix. L’homme a déclaré aux médecins qu’après avoir lu les effets indésirables du chlorure de sodium, ou sel de table commun, il s’était tourné vers ChatGPT pour trouver des moyens d’éliminer le chlorure de son alimentation. Ses actions ultérieures ont consisté à prendre du bromure de sodium pendant trois mois, bien qu’il ait lu que « le chlorure peut être échangé avec le bromure, bien que probablement à d’autres fins, comme le nettoyage ». Le bromure de sodium lui-même était historiquement utilisé comme sédatif.

Les auteurs de l’article des Annals of Internal Medicine ont souligné ce cas comme un exemple puissant de la manière dont l’utilisation de l’IA « peut potentiellement contribuer au développement de résultats de santé indésirables évitables ». Bien qu’ils n’aient pas pu accéder au journal de conversation spécifique de l’homme avec le chatbot, ils ont mené leur propre test. En demandant à ChatGPT par quoi le chlorure pouvait être remplacé, la réponse de l’IA incluait le bromure, crucialement sans fournir d’avertissements de santé ni s’enquérir de l’intention de l’utilisateur – une omission critique qu’un professionnel médical humain aborderait invariablement.

Les chercheurs ont souligné que les applications d’IA comme ChatGPT risquent de générer « des inexactitudes scientifiques, manquent de capacité à discuter de manière critique les résultats et, en fin de compte, alimentent la propagation de la désinformation ». Ils ont également noté l’improbabilité qu’un professionnel médical qualifié suggère un jour le bromure de sodium comme substitut du sel de table, illustrant davantage la déconnexion entre les conseils générés par l’IA et la pratique médicale établie.

Les symptômes du patient étaient graves et alarmants. Il s’est présenté à l’hôpital, manifestant de la paranoïa, croyant que son voisin pourrait l’empoisonner, et affichant une peur irrationnelle de l’eau qu’on lui offrait malgré une soif intense. Dans les 24 heures suivant son admission, il a tenté de s’échapper de l’hôpital et a ensuite été interné et traité pour psychose. Une fois stabilisé, il a signalé des symptômes supplémentaires compatibles avec le bromisme, notamment de l’acné faciale, une soif excessive et de l’insomnie.

Cet incident survient alors qu’OpenAI, le développeur de ChatGPT, a récemment annoncé des mises à jour importantes du chatbot, désormais alimenté par le modèle GPT-5. La société affirme que l’une des forces principales de GPT-5 réside dans les requêtes liées à la santé, promettant une précision améliorée et une approche proactive pour « signaler les préoccupations potentielles » comme les maladies physiques ou mentales graves. Cependant, OpenAI a constamment souligné que son chatbot n’est pas destiné à remplacer les conseils médicaux professionnels.

Ce cas sert de rappel critique tant pour les patients que pour les prestataires de soins de santé. Bien que l’IA soit prometteuse en tant que pont entre les connaissances scientifiques et le public, elle comporte également le risque inhérent de promouvoir des informations décontextualisées ou dangereusement trompeuses. Les professionnels de la santé, conclut l’article, devront de plus en plus prendre en compte l’influence de l’IA lorsqu’ils évaluent la manière dont les patients obtiennent leurs informations de santé.