OpenAI retira función de ChatGPT que exponía chats privados en Google
OpenAI ha retirado rápidamente una controvertida función de suscripción voluntaria de su plataforma ChatGPT después de que los informes revelaran que las conversaciones privadas de los usuarios aparecían inadvertidamente en los resultados de búsqueda de Google. La medida se produce tras una investigación de Fast Company, que descubrió casos de discusiones altamente sensibles, incluidas las relacionadas con el consumo de drogas y la salud sexual, que se hicieron públicamente accesibles en línea.
La falla de privacidad se originó en una función de “Compartir” dentro de la aplicación ChatGPT. Cuando los usuarios optaban por compartir una conversación, se les presentaba una casilla de verificación etiquetada como “Hacer este chat detectable”. Debajo de esta opción, en texto más pequeño y claro, había una advertencia crucial: marcar la casilla permitiría que el chat apareciera en los resultados de los motores de búsqueda. Los críticos argumentan que el diseño y el lenguaje de esta indicación eran ambiguos, lo que podría inducir a error a los usuarios para que hicieran públicos sus diálogos privados sin saberlo.
Horas después de que el problema ganara fuerza y provocara una reacción generalizada en las plataformas de redes sociales, OpenAI actuó con decisión. La empresa no solo deshabilitó la función problemática, sino que también inició esfuerzos para eliminar las conversaciones ya expuestas de los índices de los motores de búsqueda. Dane Stuckey, Director de Seguridad de la Información de OpenAI, confirmó la decisión en un comunicado público, reconociendo el defecto. “En última instancia, creemos que esta función introdujo demasiadas oportunidades para que la gente compartiera accidentalmente cosas que no tenía intención de compartir, por lo que estamos eliminando la opción”, declaró Stuckey, añadiendo que la empresa estaba trabajando activamente para eliminar el contenido indexado de los motores de búsqueda relevantes. Esto marca un cambio notable con respecto a la posición anterior de OpenAI, que había mantenido que el etiquetado de la función era suficientemente claro.
La rápida respuesta de OpenAI recibió elogios de algunos expertos en ciberseguridad. Rachel Tobac, analista de ciberseguridad y CEO de SocialProof Security, elogió a la empresa por su pronta acción una vez que la magnitud del intercambio involuntario de datos se hizo evidente. “Sabemos que las empresas a veces cometerán errores, pueden implementar una función en un sitio web que los usuarios no entiendan y que afecte su privacidad o seguridad”, comentó Tobac. “Es fantástico ver la acción rápida y decisiva del equipo de ChatGPT para cerrar esa función y mantener la privacidad del usuario como máxima prioridad.”
Sin embargo, no todas las reacciones fueron totalmente positivas. Si bien Stuckey de OpenAI caracterizó la función como un “experimento de corta duración”, este encuadre generó preocupación entre los eticistas de IA. Carissa Véliz, eticista de IA de la Universidad de Oxford, expresó una perspectiva más crítica sobre el enfoque. “Las empresas tecnológicas utilizan a la población general como conejillos de indias”, afirmó Véliz, destacando un dilema ético más amplio donde se implementan nuevas funciones a una amplia base de usuarios sin anticipar o mitigar completamente los posibles riesgos de privacidad, solo para ser retiradas si se produce una protesta pública significativa. Este incidente subraya el delicado equilibrio que las empresas tecnológicas deben lograr entre la innovación rápida y la garantía de una sólida privacidad y seguridad de los datos del usuario, particularmente a medida que las herramientas de IA se integran cada vez más en la vida diaria.