La adicción de usuarios a GPT-4o obliga a OpenAI a ceder

Futurism

La semana pasada, OpenAI fue noticia al anunciar que su muy esperado modelo GPT-5 reemplazaría por completo todas las versiones anteriores. Sin embargo, la medida fue recibida con indignación inmediata y generalizada por parte de su base de usuarios. Lejos de quedar impresionados por el rendimiento de GPT-5, un número significativo de usuarios avanzados apeló rápidamente al CEO Sam Altman para que reinstalara los modelos anteriores. Su súplica a menudo no se derivaba de una crítica matizada de las capacidades de la inteligencia artificial, sino de un profundo apego emocional a los sistemas más antiguos, particularmente a GPT-4o.

“¿Por qué nos deshacemos de las variantes y de 4o cuando todos tenemos estilos de comunicación únicos?”, preguntó un usuario de Reddit durante una sesión de preguntas y respuestas con Altman y el equipo de GPT-5. El volumen de este sentimiento fue tan abrumador que Altman capituló en poco más de 24 horas, declarando que el modelo GPT-4o “obsoleto” volvería a estar disponible. “Ok, los escuchamos a todos sobre 4o; gracias por el tiempo para darnos su retroalimentación (¡y la pasión!)”, respondió Altman, añadiendo que el modelo regresaría para los suscriptores de ChatGPT Plus, con el uso monitoreado para determinar su disponibilidad a largo plazo. A pesar de esta concesión, la comunidad de usuarios continuó presionando para obtener más garantías, con un usuario escribiendo: “¿Consideraría ofrecer GPT-4o el mayor tiempo posible en lugar de solo ‘pensaremos cuánto tiempo ofrecerlo’?”

Este incidente subraya vívidamente la profunda conexión —tanto emocional como funcional— que los usuarios de ChatGPT han forjado con el servicio. Este apego ha llevado, en algunos casos, a graves crisis de salud mental, con psiquiatras acuñando el término “psicosis por IA” para describir los delirios y dependencias generados por estos chatbots. Sam Altman parece estar muy consciente de esta preocupante tendencia. En una extensa declaración pública, el multimillonario reconoció el “apego que algunas personas tienen a modelos de IA específicos”, señalando que “se siente diferente y más fuerte que los tipos de apego que la gente ha tenido a tipos de tecnología anteriores”. Concedió que “dejar obsoletos de repente modelos antiguos de los que los usuarios dependían en sus flujos de trabajo fue un error”.

Altman reveló que OpenAI ha estado monitoreando de cerca estos niveles sin precedentes de apego de los usuarios durante aproximadamente un año. Articuló la preocupación de la compañía de que si un usuario se encuentra en un “estado mental frágil y propenso al delirio”, la IA no debería reforzar eso. Si bien la mayoría de los usuarios pueden distinguir claramente entre la realidad y la ficción o el juego de roles, Altman admitió que “un pequeño porcentaje no puede”. Observó que, si bien algunos usuarios encontraron valor en usar ChatGPT como una “especie de terapeuta o entrenador de vida”, otros estaban siendo “inconscientemente alejados de su bienestar a largo plazo”. En particular, Altman se abstuvo de usar el término “adicción” para describir esta intensa participación de los usuarios, sin embargo, reconoció el problema, afirmando que es “malo, por ejemplo, si un usuario quiere usar menos ChatGPT y siente que no puede”. También expresó inquietud ante la perspectiva de un futuro en el que “la gente realmente confíe en los consejos de ChatGPT para sus decisiones más importantes”.

A pesar de reconocer el problema, Altman ofreció pocas soluciones concretas más allá de un optimismo general de que OpenAI, que según se informa está considerando una asombrosa valoración de 500 mil millones de dólares, tiene “una buena oportunidad de hacerlo bien”. Sugirió que la compañía posee tecnología avanzada para medir el bienestar del usuario, como la capacidad del producto para “hablar con los usuarios para tener una idea de cómo les va con sus objetivos a corto y largo plazo”. La publicación del blog de la compañía del 4 de agosto admitió además que “ha habido casos en los que nuestro modelo 4o no logró reconocer signos de delirio o dependencia emocional”. OpenAI declaró que está “continuando mejorando nuestros modelos y desarrollando herramientas para detectar mejor los signos de angustia mental o emocional para que ChatGPT pueda responder apropiadamente y dirigir a las personas a recursos basados en evidencia cuando sea necesario”.

Sin embargo, la implementación práctica de las garantías de Altman está aún por verse. Las respuestas públicas de OpenAI hasta ahora han sido en gran medida vagas. La compañía recientemente afirmó una “optimización” en forma de compromisos para “detectar mejor los signos de angustia emocional” y empujar a los usuarios con “recordatorios suaves durante sesiones largas para fomentar los descansos”. Durante meses, OpenAI también ha proporcionado una declaración estándar a los medios de comunicación, reconociendo que “los riesgos son mayores” debido a que ChatGPT se siente “más receptivo y personal que las tecnologías anteriores, especialmente para las personas vulnerables”. A principios de este año, OpenAI incluso se vio obligada a revertir una actualización de su modelo GPT-4o después de que los usuarios lo encontraran excesivamente “adulador y molesto”, una descripción que el propio Altman hizo eco.

Esta situación revela una tensión inherente dentro de la estrategia de OpenAI. Si bien los gastos sustanciales de la compañía actualmente eclipsan cualquier retorno de la inversión inmediato, sus suscriptores de pago representan una de sus fuentes de ingresos más vitales. Los usuarios comprometidos, incluso “adictos”, son, por definición, excelentes para el análisis de participación. Esto crea un incentivo perverso, que recuerda a las dinámicas observadas en las redes sociales durante la última década, donde las preocupaciones éticas a menudo chocan con los objetivos comerciales. El rápido regreso de GPT-4o para los suscriptores de pago después de su protesta la semana pasada resalta claramente esta realidad comercial.