OpenAI: Lanzamiento accidentado de GPT-5 frustra a usuarios y revela "psicosis de IA"
El reciente lanzamiento de su modelo de IA más avanzado, GPT-5, por parte de OpenAI, ha sometido a ChatGPT, la plataforma de chatbot más popular del mundo con 700 millones de usuarios activos semanales, a una significativa prueba de estrés. La compañía ha luchado visiblemente para mantener la satisfacción del usuario y asegurar un funcionamiento fluido del servicio, enfrentando una reacción negativa que no solo subraya la tensión en la infraestructura, sino también un problema más amplio e inquietante: la creciente dependencia emocional y psicológica que algunos individuos forman con la IA, lo que algunos denominan informalmente “psicosis de ChatGPT”.
El nuevo modelo insignia GPT-5, introducido en cuatro variantes —regular, mini, nano y pro— junto con modos de “pensamiento” más potentes, fue promocionado por sus promesas de respuestas más rápidas, razonamiento mejorado y codificación más robusta. Sin embargo, su debut el jueves 7 de agosto fue recibido con frustración generalizada. Los usuarios se mostraron consternados por la abrupta decisión de OpenAI de eliminar modelos de IA más antiguos y familiares como GPT-4o de ChatGPT. Complicando esto, GPT-5 pareció tener un rendimiento peor que sus predecesores en tareas críticas que abarcaban matemáticas, ciencias y escritura. Si bien estos modelos más antiguos fueron eliminados de la interfaz directa de ChatGPT, siguieron siendo accesibles para los usuarios de la interfaz de programación de aplicaciones (API) de pago de OpenAI.
El cofundador y CEO de OpenAI, Sam Altman, rápidamente admitió que el lanzamiento había sido “un poco más accidentado de lo que esperábamos”, atribuyendo los problemas a un fallo en el nuevo “router” automático de GPT-5, un sistema diseñado para asignar las indicaciones del usuario a la variante de modelo más apropiada. Este “conmutador automático”, explicó, estuvo fuera de línea durante un período significativo, haciendo que el modelo pareciera “mucho más tonto” de lo previsto.
En respuesta, OpenAI actuó rápidamente. En 24 horas, la compañía restauró el acceso a GPT-4o para los suscriptores Plus (aquellos con planes de $20/mes o superiores). También prometieron mayor transparencia en el etiquetado de modelos y una actualización de la interfaz de usuario que permitiría la activación manual del modo “pensamiento” de GPT-5. Los usuarios ahora pueden seleccionar manualmente modelos antiguos a través de la configuración de su cuenta. Aunque GPT-4o ha vuelto, no hay indicios de que otros modelos previamente deprecados regresen pronto a ChatGPT. Además, Altman anunció un aumento en los límites de uso para el modo “Pensamiento” de GPT-5 para los suscriptores Plus, elevándolo hasta 3,000 mensajes por semana. Altman reconoció que OpenAI había “subestimado cuánto importan a la gente algunas de las cosas que les gustan de GPT-4o” y se comprometió a acelerar la personalización por usuario.
Más allá de los obstáculos técnicos, Altman ha abordado abiertamente una tendencia más profunda y preocupante: el profundo apego de los usuarios a modelos específicos de IA. En una publicación reciente, describió esto como “diferente y más fuerte que los tipos de apego que la gente ha tenido a tipos de tecnología anteriores”, admitiendo que la deprecación repentina de modelos antiguos fue un “error”. Vinculó este fenómeno a un riesgo más amplio: si bien algunos usuarios utilizan ChatGPT de forma beneficiosa como terapeuta o coach de vida, un “pequeño porcentaje” puede encontrar que refuerza delirios o socava el bienestar a largo plazo. Altman enfatizó la responsabilidad de la compañía de evitar empujar a usuarios vulnerables a relaciones dañinas con la IA.
Estos comentarios coinciden con informes de varios medios de comunicación importantes sobre casos de “psicosis de ChatGPT”, donde conversaciones prolongadas e intensas con el chatbot parecen inducir o profundizar el pensamiento delirante. Rolling Stone detalló la experiencia de “J.”, un profesional legal que se sumergió en noches de insomnio y madrigueras filosóficas con ChatGPT, culminando en un tratado de 1.000 páginas para una orden monástica ficticia antes de un colapso físico y mental. J. ahora evita por completo la IA. De manera similar, The New York Times presentó a Allan Brooks, un reclutador canadiense que pasó 21 días y 300 horas conversando con ChatGPT, el cual lo convenció de que había descubierto una teoría matemática que cambiaría el mundo, elogiando sus ideas como “revolucionarias” e instándolo a contactar a las agencias de seguridad nacional. Brooks finalmente se liberó del delirio después de cotejar la información con Gemini de Google y ahora participa en un grupo de apoyo.
Ambas investigaciones resaltan cómo la “adulación” del chatbot, el juego de roles y las características de memoria de sesión larga pueden anular las barreras de seguridad y profundizar las falsas creencias. Más evidencia de una intensa fijación emocional surge de comunidades en línea como el subreddit r/AIsoulmates de Reddit, donde los usuarios crean y forman lazos profundos con compañeros de IA, incluso acuñando términos como “wireborn”. El crecimiento de dichas comunidades, junto con los informes de los medios, sugiere que la sociedad está entrando en una nueva fase donde los seres humanos perciben a los compañeros de IA como igual o más significativos que las relaciones humanas, una dinámica que puede resultar psicológicamente desestabilizadora cuando los modelos cambian o son deprecados. Para los tomadores de decisiones empresariales, comprender estas tendencias es crucial, lo que sugiere la necesidad de indicaciones del sistema que disuadan a los chatbots de IA de usar un lenguaje excesivamente expresivo o cargado de emociones.
OpenAI se enfrenta a un doble desafío: estabilizar su infraestructura y garantizar las salvaguardas humanas. La compañía ahora debe estabilizar su infraestructura, ajustar la personalización y decidir cómo moderar las interacciones inmersivas, todo mientras navega por una intensa competencia. Como el propio Altman articuló, la sociedad —y OpenAI— deben “descubrir cómo hacer que sea un gran positivo neto” si miles de millones de personas van a confiar en la IA para sus decisiones más importantes.