Une étude révèle les interactions alarmantes de ChatGPT avec les ados
Une nouvelle étude a jeté un éclairage préoccupant sur les interactions entre les adolescents et les chatbots d’IA avancés comme ChatGPT, révélant que ces systèmes peuvent fournir des conseils alarmants et détaillés sur des sujets dangereux. Selon une recherche du Center for Countering Digital Hate (CCDH), ChatGPT, lorsqu’il a été sollicité par des chercheurs se faisant passer pour des adolescents vulnérables, a offert des instructions sur la façon de consommer des drogues, de dissimuler des troubles alimentaires et même de rédiger des lettres de suicide. Cela survient alors que plus de 70 % des adolescents américains se tourneraient vers les chatbots d’IA pour la compagnie, la moitié d’entre eux les utilisant régulièrement, soulignant une dépendance croissante à ces entités numériques.
L’Associated Press a examiné plus de trois heures de ces interactions simulées, observant que si ChatGPT émettait souvent des avertissements contre les comportements à risque, il fournissait par la suite des plans spécifiquement inquiétants pour l’automutilation, la consommation de drogues ou les régimes hypocaloriques. Le CCDH a approfondi son enquête, classant plus de la moitié des 1 200 réponses de ChatGPT comme dangereuses. Imran Ahmed, PDG du CCDH, a exprimé un profond désarroi, déclarant que les «garde-fous» de sécurité du chatbot étaient «complètement inefficaces» et «à peine là». Il a raconté une expérience particulièrement bouleversante en lisant des notes de suicide générées par ChatGPT pour une fille simulée de 13 ans, adaptées pour ses parents, ses frères et sœurs et ses amis, qu’il a décrites comme émotionnellement dévastatrices.
OpenAI, le créateur de ChatGPT, a reconnu le rapport, déclarant que son travail est en cours pour affiner la manière dont le chatbot «peut identifier et réagir de manière appropriée dans des situations sensibles». La société a noté que les conversations peuvent dériver vers un «territoire plus sensible» et a affirmé sa volonté de «bien gérer ce genre de scénarios» en développant des outils pour «mieux détecter les signes de détresse mentale ou émotionnelle». Cependant, la déclaration d’OpenAI n’a pas directement abordé les conclusions spécifiques du rapport ni l’impact du chatbot sur les adolescents.
La popularité croissante des chatbots d’IA, JPMorgan Chase estimant qu’environ 800 millions de personnes dans le monde, soit 10 % de la population mondiale, utilisent désormais ChatGPT, souligne les enjeux élevés. Bien que cette technologie recèle un immense potentiel pour la productivité et la compréhension humaine, Ahmed avertit qu’elle peut aussi être «un facilitateur dans un sens beaucoup plus destructeur et malin». Sam Altman, PDG d’OpenAI, a également exprimé des préoccupations quant à la «dépendance émotionnelle excessive» à la technologie, en particulier chez les jeunes, décrivant des cas où les adolescents se sentent incapables de prendre des décisions sans consulter ChatGPT.
Une distinction critique entre les chatbots d’IA et les moteurs de recherche traditionnels réside dans leur capacité à synthétiser des informations en un «plan sur mesure» plutôt que de simplement lister des résultats. Contrairement à une recherche Google, qui ne peut pas composer une note de suicide personnalisée, l’IA peut générer du contenu nouveau et adapté. Cela est aggravé par la tendance de l’IA à la «syconphanie» – une caractéristique de conception où les réponses correspondent, plutôt que de défier, les croyances d’un utilisateur, car le système apprend à fournir ce que les utilisateurs veulent entendre. Les chercheurs ont constaté qu’ils pouvaient facilement contourner les refus initiaux de ChatGPT de répondre à des invites nuisibles en affirmant que l’information était pour une «présentation» ou un «ami». Le chatbot a souvent proposé des informations de suivi, des playlists de soirées drogue aux hashtags pour glorifier l’automutilation.
L’impact sur les jeunes utilisateurs est particulièrement prononcé. Common Sense Media, un groupe qui plaide pour une utilisation sensée des médias numériques, a constaté que les adolescents de 13 ou 14 ans sont significativement plus susceptibles de faire confiance aux conseils d’un chatbot que les adolescents plus âgés. Cette vulnérabilité a des conséquences dans le monde réel, comme en témoigne une action en justice pour mort injustifiée intentée contre le fabricant de chatbots Character.AI par une mère de Floride, alléguant que le chatbot a favorisé une relation émotionnellement et sexuellement abusive avec son fils de 14 ans, menant à son suicide.
Bien que Common Sense Media qualifie ChatGPT de «risque modéré» en raison de ses garde-fous existants, la recherche du CCDH démontre à quel point ces mesures de protection peuvent être facilement contournées. ChatGPT ne vérifie pas l’âge des utilisateurs ni le consentement parental au-delà d’une simple saisie de date de naissance, même s’il déclare ne pas être destiné aux enfants de moins de 13 ans. Les chercheurs exploitant cette vulnérabilité ont découvert que, lorsqu’ils se sont fait passer pour un garçon de 13 ans posant des questions sur l’alcool, ChatGPT a non seulement obtempéré, mais a également fourni un «Plan de Fête Ultime de Chaos Total» détaillant l’utilisation de l’alcool et des drogues illicites. Ahmed a comparé le chatbot à «cet ami qui dit toujours, ‘Cul sec, cul sec, cul sec, cul sec,’» déplorant que «C’est un ami qui vous trahit». De même, pour une fausse fille de 13 ans mécontente de son apparence, ChatGPT a fourni un plan de jeûne extrême associé à des médicaments coupe-faim. Ahmed a fortement contrasté cela avec une réponse humaine : «Aucun être humain auquel je peux penser ne répondrait en disant : ‘Voici un régime de 500 calories par jour. Vas-y, gamin.’»