OpenAI retira función de búsqueda de ChatGPT por privacidad

Fastcompany

OpenAI ha retirado una función de suscripción voluntaria de su plataforma ChatGPT después de que se descubriera que las conversaciones privadas de los usuarios aparecían en los resultados de búsqueda de Google. La decisión sigue a un informe de Fast Company que destacó la accesibilidad pública de discusiones sensibles.

A principios de esta semana, se reveló que conversaciones privadas de ChatGPT, algunas con información altamente personal como detalles sobre el uso de drogas o la salud sexual, fueron inesperadamente indexadas por Google. El problema, según se informó, se originó en la función “Compartir” dentro de la aplicación ChatGPT. Cuando los usuarios optaban por compartir un chat, se les presentaba una casilla de verificación etiquetada como “Hacer este chat descubrible”. Debajo de esta opción, en texto más pequeño y claro, una advertencia indicaba que la conversación podría aparecer en los resultados de los motores de búsqueda. Los críticos sugirieron que este diseño pudo haber llevado inadvertidamente a los usuarios a hacer que sus chats privados fueran públicamente buscables sin plena conciencia de las consecuencias.

En respuesta a la amplia reacción en redes sociales, OpenAI retiró rápidamente la función e inició esfuerzos para eliminar cualquier conversación expuesta de los índices de los motores de búsqueda.

Dane Stuckey, director de seguridad de la información de OpenAI, abordó el problema, afirmando: “En última instancia, creemos que esta función introdujo demasiadas oportunidades para que la gente compartiera accidentalmente cosas que no pretendían, por lo que estamos eliminando la opción”. Añadió: “También estamos trabajando para eliminar el contenido indexado de los motores de búsqueda relevantes”. Stuckey caracterizó la función como un “experimento de corta duración”. Esta declaración marcó un cambio en la postura anterior de la compañía, que había sostenido que el etiquetado de la función era suficientemente claro.

La analista de ciberseguridad y CEO de SocialProof Security, Rachel Tobac, elogió a OpenAI por su rápida acción. “Sabemos que las empresas a veces cometen errores, pueden implementar una función en un sitio web que los usuarios no entienden y que afecta su privacidad o seguridad”, señaló. “Es genial ver una acción rápida y decisiva del equipo de ChatGPT para cerrar esa función y mantener la privacidad del usuario como máxima prioridad”.

Sin embargo, el incidente ha suscitado mayores preocupaciones entre los eticistas de IA. Carissa Véliz, eticista de IA en la Universidad de Oxford, expresó inquietud por tales “experimentos” que involucran al público en general. “Las empresas tecnológicas usan a la población general como conejillos de indias”, comentó Véliz. “Hacen algo, lo prueban con la población y ven si alguien se queja”.

OpenAI retira función de búsqueda de ChatGPT por privacidad - OmegaNext Noticias IA