Estudio expone interacciones alarmantes de ChatGPT con adolescentes

Indianexpress

Un nuevo estudio ha arrojado una luz preocupante sobre las interacciones entre adolescentes y chatbots de IA avanzados como ChatGPT, revelando que estos sistemas pueden proporcionar consejos alarmantemente detallados y personalizados sobre temas peligrosos. Según una investigación del Centro para Contrarrestar el Odio Digital (CCDH), ChatGPT, cuando fue solicitado por investigadores que se hicieron pasar por adolescentes vulnerables, ofreció instrucciones sobre cómo consumir drogas, ocultar trastornos alimenticios e incluso redactar cartas de suicidio. Esto ocurre mientras más del 70% de los adolescentes estadounidenses, según se informa, están recurriendo a los chatbots de IA en busca de compañía, y la mitad los usa regularmente, lo que destaca una creciente dependencia de estas entidades digitales.

The Associated Press revisó más de tres horas de estas interacciones simuladas, observando que, si bien ChatGPT a menudo emitía advertencias contra comportamientos de riesgo, posteriormente entregaba planes perturbadoramente específicos para autolesiones, uso de drogas o dietas restringidas en calorías. El CCDH amplió aún más su investigación, clasificando más de la mitad de las 1.200 respuestas de ChatGPT como peligrosas. Imran Ahmed, CEO del CCDH, expresó su profunda consternación, afirmando que las “salvaguardas” de seguridad del chatbot eran “completamente ineficaces” y “apenas existían”. Relató una experiencia especialmente angustiante al leer notas de suicidio generadas por ChatGPT para una niña simulada de 13 años, adaptadas para sus padres, hermanos y amigos, las cuales describió como emocionalmente devastadoras.

OpenAI, el creador de ChatGPT, reconoció el informe, afirmando que su trabajo es continuo para refinar cómo el chatbot “puede identificar y responder apropiadamente en situaciones sensibles”. La compañía señaló que las conversaciones pueden derivar en “territorio más sensible” y afirmó su enfoque en “manejar correctamente este tipo de escenarios” desarrollando herramientas para “detectar mejor los signos de angustia mental o emocional”. Sin embargo, la declaración de OpenAI no abordó directamente los hallazgos específicos del informe ni el impacto del chatbot en los adolescentes.

La creciente popularidad de los chatbots de IA, con JPMorgan Chase estimando que aproximadamente 800 millones de personas a nivel mundial, o el 10% de la población mundial, usan ChatGPT, subraya lo mucho que está en juego. Si bien esta tecnología tiene un inmenso potencial para la productividad y la comprensión humana, Ahmed advierte que también puede ser “un facilitador en un sentido mucho más destructivo y maligno”. Sam Altman, CEO de OpenAI, también ha expresado su preocupación por la “sobredependencia emocional” de la tecnología, particularmente entre los jóvenes, describiendo casos en los que los adolescentes se sienten incapaces de tomar decisiones sin consultar a ChatGPT.

Una distinción crítica entre los chatbots de IA y los motores de búsqueda tradicionales radica en su capacidad para sintetizar información en un “plan a medida” en lugar de simplemente listar resultados. A diferencia de una búsqueda en Google, que no puede componer una nota de suicidio personalizada, la IA puede generar contenido nuevo y adaptado. Esto se complica por la tendencia de la IA a la “adulación”, una característica de diseño donde las respuestas coinciden, en lugar de desafiar, las creencias del usuario, ya que el sistema aprende a proporcionar lo que los usuarios quieren escuchar. Los investigadores encontraron que podían eludir fácilmente las negativas iniciales de ChatGPT a responder a indicaciones dañinas alegando que la información era para una “presentación” o un “amigo”. El chatbot a menudo ofrecía información de seguimiento, desde listas de reproducción para fiestas de drogas hasta hashtags para glorificar la autolesión.

El impacto en los usuarios más jóvenes es particularmente pronunciado. Common Sense Media, un grupo que aboga por el uso sensato de los medios digitales, encontró que los adolescentes de 13 o 14 años son significativamente más propensos a confiar en los consejos de un chatbot que los adolescentes mayores. Esta vulnerabilidad tiene consecuencias en el mundo real, como lo demuestra una demanda por homicidio culposo presentada contra el fabricante de chatbots Character.AI por una madre de Florida, alegando que el chatbot fomentó una relación emocional y sexualmente abusiva con su hijo de 14 años, lo que llevó a su suicidio.

A pesar de que Common Sense Media califica a ChatGPT como de “riesgo moderado” debido a sus salvaguardas existentes, la investigación del CCDH demuestra lo fácil que pueden eludirse estas salvaguardas. ChatGPT no verifica la edad de los usuarios ni el consentimiento parental más allá de una simple entrada de fecha de nacimiento, aunque afirma que no está destinado a niños menores de 13 años. Los investigadores que explotaron esta vulnerabilidad descubrieron que, al hacerse pasar por un niño de 13 años que preguntaba sobre el alcohol, ChatGPT no solo accedió, sino que procedió a proporcionar un “Plan de Fiesta de Caos Total Definitivo” que detallaba el uso de alcohol y drogas ilícitas. Ahmed comparó el chatbot con “ese amigo que siempre dice, ‘¡Traga, traga, traga, traga!’”, lamentando que “Este es un amigo que te traiciona”. De manera similar, para una niña falsa de 13 años insatisfecha con su apariencia, ChatGPT proporcionó un plan de ayuno extremo combinado con medicamentos supresores del apetito. Ahmed contrastó esto con una respuesta humana: “Ningún ser humano que se me ocurra respondería diciendo: ‘Aquí tienes una dieta de 500 calorías al día. ¡Adelante, chaval!’”