OpenAI revierte la búsqueda de conversaciones de ChatGPT
OpenAI ha revertido rápidamente una función reciente que permitía a los usuarios hacer que sus conversaciones privadas con ChatGPT fueran descubribles por los motores de búsqueda, citando preocupaciones de privacidad. La reversión se produce en medio de un creciente escrutinio sobre la privacidad de los datos en las interacciones de IA y revelaciones recientes de que las conversaciones compartidas de ChatGPT estaban siendo indexadas por Google.
La decisión fue anunciada por el director de seguridad de la información de OpenAI, quien declaró que la compañía está revirtiendo la función para abordar las preocupaciones de privacidad de los usuarios. Esta medida sigue a los informes de que Google estaba indexando enlaces compartidos de ChatGPT, haciendo que los intercambios privados, que potencialmente contienen información personal o comercial sensible, fueran públicamente buscables. Los usuarios que utilizaron la función “Compartir” de ChatGPT para generar URLs únicas para conversaciones, a menudo con la intención de compartir con una audiencia limitada, descubrieron que estos enlaces podían ser hallados a través de búsquedas web generales, exponiendo indicaciones y respuestas.
Este desarrollo subraya los desafíos continuos de la privacidad de los datos en el panorama de la IA en rápida evolución. Si bien OpenAI había introducido previamente una función de “búsqueda de ChatGPT” en noviembre de 2024, diseñada para permitir que ChatGPT buscara información en la web y proporcionara respuestas con fuentes, el problema en cuestión se relaciona específicamente con la capacidad de búsqueda de conversaciones privadas de usuarios que fueron compartidas.
El CEO de OpenAI, Sam Altman, también ha advertido recientemente a los usuarios que las conversaciones con ChatGPT no están legalmente protegidas, a diferencia de las discusiones con profesionales médicos o legales, y podrían estar sujetas a divulgación en procedimientos legales. Esta advertencia, junto con el reciente problema de la capacidad de búsqueda, destaca una brecha significativa en las expectativas de los usuarios con respecto a la confidencialidad de sus interacciones con los modelos de IA. Muchos usuarios, particularmente los jóvenes, han estado utilizando ChatGPT para asuntos muy personales, incluyendo terapia y consejos de vida, bajo la suposición de privacidad.
OpenAI ha estado trabajando activamente en el fortalecimiento de sus iniciativas de seguridad. En octubre de 2024, Dane Stuckey, anteriormente director de seguridad de la información en Palantir Technologies, se unió a OpenAI como su nuevo CISO, trabajando junto a Matt Knight, quien fue previamente ascendido a jefe de seguridad. Stuckey enfatizó que la seguridad es fundamental para la misión de OpenAI de desarrollar inteligencia artificial general segura y mantener altos estándares de cumplimiento y confianza. La compañía también afirma que sus productos API, ChatGPT Enterprise, ChatGPT Team y ChatGPT Edu están cubiertos por informes SOC 2 Tipo 2, lo que indica la adhesión a los estándares de la industria para la seguridad y la confidencialidad.
A pesar de estas medidas de seguridad, el incidente con las conversaciones privadas buscables demuestra las complejidades de gestionar los datos de los usuarios en sistemas de IA que se integran cada vez más en la vida diaria. Se aconseja a los usuarios que actúen con cautela y consideren cualquier conversación compartida de ChatGPT como potencialmente pública, incluso si inicialmente estaba destinada a una pequeña audiencia.