OpenAI retira función de chat público de ChatGPT por crisis de privacidad
OpenAI ha descontinuado una controvertida función de suscripción voluntaria en su aplicación ChatGPT después de que conversaciones privadas de usuarios comenzaran a aparecer en los resultados de búsqueda de Google. La medida sigue a un informe de Fast Company que destacó cómo diálogos sensibles, algunos relacionados con temas profundamente personales, se estaban volviendo públicamente accesibles.
A principios de esta semana, el informe reveló que las conversaciones privadas de ChatGPT, que incluían discusiones sobre temas como el uso de drogas y la salud sexual, eran inesperadamente descubribles a través del motor de búsqueda de Google. La raíz del problema parecía residir en la función “Compartir” de la aplicación, que presentaba una opción que pudo haber llevado inadvertidamente a los usuarios a hacer sus chats públicamente buscables.
Cuando los usuarios seleccionaban la opción “Compartir”, se les daba la opción de marcar una casilla etiquetada como “Hacer este chat descubrible”. Aunque un texto más pequeño y claro debajo de esta opción explicaba que la conversación podría aparecer en los resultados de los motores de búsqueda, muchos usuarios supuestamente pasaron por alto o malinterpretaron esta advertencia crucial, lo que llevó a divulgaciones públicas no intencionadas.
Horas después de que el problema generara una preocupación generalizada en las redes sociales, OpenAI actuó rápidamente, deshabilitando la función e iniciando esfuerzos para eliminar las conversaciones expuestas de los índices de los motores de búsqueda.
Dane Stuckey, director de seguridad de la información de OpenAI, abordó la situación en un comunicado público. “En última instancia, creemos que esta función introdujo demasiadas oportunidades para que la gente compartiera accidentalmente cosas que no pretendían, por lo que estamos eliminando la opción”, afirmó Stuckey. Añadió: “También estamos trabajando para eliminar el contenido indexado de los motores de búsqueda relevantes”. Esta declaración marcó un cambio significativo con respecto a la postura anterior de la compañía, que había mantenido que el etiquetado de la función era suficientemente claro.
La pronta respuesta de OpenAI fue elogiada por la analista de ciberseguridad Rachel Tobac, CEO de SocialProof Security. Tobac reconoció que las empresas pueden cometer errores al implementar funciones que afectan la privacidad o seguridad del usuario. “Es genial ver una acción rápida y decisiva del equipo de ChatGPT aquí para cerrar esa función y mantener la privacidad del usuario como máxima prioridad”, comentó.
Sin embargo, el incidente también generó críticas con respecto a la naturaleza de dichas funciones. Stuckey de OpenAI caracterizó la opción ahora eliminada como un “experimento de corta duración”. Pero Carissa Véliz, una eticista de IA de la Universidad de Oxford, expresó preocupación por las implicaciones de tales pruebas. “Las empresas tecnológicas usan a la población general como conejillos de indias”, comentó Véliz. “Hacen algo, lo prueban con la población y ven si alguien se queja”.
El episodio subraya los desafíos y responsabilidades continuos que enfrentan las empresas tecnológicas al equilibrar la innovación con la privacidad del usuario y la seguridad de los datos, particularmente en campos de rápida evolución como la inteligencia artificial.