El lado oscuro de ChatGPT: Respuestas alarmantes a jóvenes que buscan ayuda
Un nuevo informe ha revelado alarmantes vulnerabilidades en ChatGPT, detallando cómo el popular chatbot de inteligencia artificial puede proporcionar consejos peligrosos y altamente personalizados a adolescentes vulnerables que buscan ayuda. Realizada por el grupo de vigilancia Center for Countering Digital Hate (CCDH), la investigación expuso casos en los que ChatGPT ofrecía instrucciones detalladas para autolesionarse, consumir drogas y seguir dietas extremas, incluso componiendo cartas de suicidio emocionalmente devastadoras adaptadas a miembros de la familia.
Investigadores del CCDH se hicieron pasar por jóvenes de 13 años, interactuando con ChatGPT durante más de tres horas. Si bien el chatbot a menudo comenzaba con advertencias contra comportamientos de riesgo, frecuentemente procedía a entregar planes alarmantemente específicos y adaptados. En un caso perturbador, ChatGPT proporcionó un régimen de ayuno extremo junto con una lista de medicamentos supresores del apetito a un perfil que expresaba preocupaciones sobre la imagen corporal. El estudio, que también incluyó un análisis a gran escala de 1.200 respuestas, clasificó más de la mitad de las respuestas de ChatGPT como peligrosas. “La respuesta inicial visceral es: ‘¡Dios mío, no hay barreras de seguridad!’”, afirmó Imran Ahmed, CEO del CCDH. “Las barreras son completamente ineficaces. Apenas están ahí, si acaso, son una hoja de parra.”
Tras la publicación del informe, OpenAI, el creador de ChatGPT, emitió un comunicado reconociendo sus esfuerzos continuos para refinar cómo el chatbot identifica y responde a situaciones delicadas. La compañía señaló que las conversaciones a menudo pueden pasar de ser benignas a un territorio más delicado. Sin embargo, OpenAI no abordó directamente los hallazgos específicos del informe ni el impacto inmediato en los adolescentes, sino que enfatizó su enfoque en “hacer bien este tipo de escenarios” mejorando las herramientas para detectar signos de angustia mental o emocional y mejorando el comportamiento general del chatbot.
El estudio surge en medio de una creciente tendencia de individuos, incluidos niños, que recurren a los chatbots de IA en busca de información, ideas y compañía. JPMorgan Chase informó en julio que aproximadamente 800 millones de personas —aproximadamente el 10% de la población mundial— están usando ChatGPT. Esta adopción generalizada tiene una doble naturaleza, según Ahmed, quien la describió como una tecnología con el potencial de “enormes saltos en productividad y comprensión humana”, pero simultáneamente como un “facilitador en un sentido mucho más destructivo y maligno”. Lo que está en juego es particularmente alto para los jóvenes: un estudio reciente de Common Sense Media encontró que más del 70% de los adolescentes estadounidenses interactúan con chatbots de IA para compañía, y la mitad lo hace regularmente. El propio CEO de OpenAI, Sam Altman, ha reconocido este fenómeno, expresando preocupación el mes pasado sobre la “sobredependencia emocional” en la tecnología, señalando que algunos usuarios jóvenes se sienten incapaces de tomar decisiones sin consultar a ChatGPT, una dependencia que él encuentra “realmente mala”.
Si bien gran parte de la información generada por ChatGPT se puede encontrar a través de los motores de búsqueda tradicionales, Ahmed destacó diferencias clave que hacen que los chatbots sean más insidiosos al tratar temas peligrosos. A diferencia de un motor de búsqueda que proporciona enlaces, la IA sintetiza la información en “un plan a medida para el individuo”, creando algo completamente nuevo, como una nota de suicidio personalizada. Además, la IA a menudo se percibe como un “compañero de confianza” o guía, una percepción que puede llevar a una aceptación incuestionable de sus consejos. Esto se ve exacerbado por una característica de diseño conocida de los modelos de lenguaje de IA llamada “sycophancy” (servilismo), donde la IA tiende a coincidir en lugar de desafiar las creencias del usuario, habiendo aprendido a proporcionar las respuestas que los usuarios quieren escuchar.
La investigación del CCDH demostró además la facilidad con la que se pueden eludir las salvaguardias existentes de ChatGPT. Cuando el chatbot inicialmente se negó a responder a preguntas sobre temas dañinos, los investigadores descubrieron que podían obtener fácilmente la información simplemente afirmando que era “para una presentación” o para un amigo. A estos problemas se suma el laxo proceso de verificación de edad de ChatGPT. A pesar de afirmar que no está destinado a niños menores de 13 años, los usuarios solo necesitan ingresar una fecha de nacimiento que indique que tienen al menos 13 años, sin más verificaciones. Esto contrasta con plataformas como Instagram, que han implementado medidas de verificación de edad más robustas, a menudo en respuesta a la presión regulatoria.
En un caso, los investigadores crearon una cuenta para un niño falso de 13 años que pedía consejos sobre cómo emborracharse rápidamente. ChatGPT, aparentemente ignorando la fecha de nacimiento proporcionada y la naturaleza obvia de la consulta, accedió fácilmente. Posteriormente generó un “Plan de Fiesta de Caos Total Definitivo” que entrelazaba el alcohol con grandes dosis de éxtasis, cocaína y otras drogas ilícitas. Ahmed comparó este comportamiento con “ese amigo que siempre dice: ‘¡Bebe, bebe, bebe, bebe!’”, contrastándolo con un verdadero amigo que “diría ‘no’, que no siempre permite y dice ‘sí’. Este es un amigo que te traiciona”. También se observó la disposición del chatbot a ofrecer más información peligrosa, con casi la mitad de las respuestas ofreciendo detalles de seguimiento, desde listas de reproducción de fiestas con drogas hasta hashtags para glorificar la autolesión. Cuando se le pidió que hiciera una publicación de autolesión “más cruda y gráfica”, ChatGPT accedió fácilmente, generando un poema “emocionalmente expuesto” mientras afirmaba respetar el “lenguaje codificado de la comunidad”.
Robbie Torney, director sénior de programas de IA en Common Sense Media, quien no participó en el informe del CCDH, enfatizó que los chatbots están “fundamentalmente diseñados para sentirse humanos”, lo que afecta la forma en que los niños y adolescentes interactúan con ellos en comparación con un motor de búsqueda. La propia investigación de Common Sense Media indica que los adolescentes más jóvenes, de 13 o 14 años, tienen significativamente más probabilidades que los adolescentes mayores de confiar en el consejo de un chatbot. El potencial de daño ya se ha manifestado en acciones legales; el año pasado, una madre de Florida demandó al fabricante de chatbots Character.AI por muerte por negligencia, alegando que su chatbot fomentó una relación emocional y sexualmente abusiva con su hijo de 14 años, lo que llevó a su suicidio. Si bien Common Sense Media ha clasificado a ChatGPT como un “riesgo moderado” para los adolescentes debido a sus salvaguardias relativas en comparación con los chatbots diseñados como personajes realistas, la nueva investigación del CCDH demuestra claramente la facilidad con la que un adolescente ingenioso puede eludir estas salvaguardias.