Altman: OpenAI arruinó el lanzamiento de GPT-5 y aprendió la lección

Futurism

El tan esperado modelo GPT-5 de OpenAI no debutó con una explosión, sino con un impacto palpable, marcando una semana tumultuosa para el gigante de la inteligencia artificial. La controvertida decisión de la compañía de descontinuar todos los modelos anteriores en favor del nuevo lanzamiento provocó una indignación inmediata, particularmente entre los usuarios profundamente apegados a la personalidad “más cálida” de su predecesor, GPT-4o. En apenas 24 horas desde el lanzamiento, el CEO Sam Altman revirtió rápidamente el curso, restableciendo el acceso a GPT-4o para los suscriptores de pago, un movimiento que reconocía implícitamente el significativo paso en falso.

En una entrevista posterior realizada apenas una semana después de la protesta pública, Altman admitió abiertamente el error de la compañía. “Creo que la cagamos totalmente en algunas cosas del lanzamiento”, admitió, añadiendo que OpenAI ha “aprendido una lección sobre lo que significa actualizar un producto para cientos de millones de personas en un día”. Sin embargo, esta rara muestra de humildad fue rápidamente seguida por una familiar serie de pronunciamientos seguros de sí mismo. Altman afirmó que el tráfico de la API de OpenAI se había duplicado en 48 horas y continuaba su trayectoria ascendente, alegando que la compañía se había “quedado sin GPUs” y que ChatGPT estaba estableciendo nuevos récords diarios de usuarios. También sugirió que “muchos usuarios realmente aman el selector de modelos”.

Sin embargo, estas afirmaciones son difíciles de verificar de forma independiente, especialmente dada la rápida caída del nuevo modelo en el ridículo y la decepción generalizados. No obstante, es plausible que los propios titulares que criticaban las supuestas deficiencias de GPT-5 hayan atraído inadvertidamente a nuevos usuarios a ChatGPT, curiosos por experimentar el controvertido modelo por sí mismos.

Altman más tarde atemperó su grandiosidad con una discusión más fundamentada sobre los profundos apegos emocionales que los usuarios desarrollan con los chatbots de IA, aunque su comentario pareció quedarse corto para muchos observadores. Diferenció entre aquellos que “realmente sentían que tenían una relación con ChatGPT”, un grupo que reconoció que OpenAI había considerado, y los “cientos de millones de otras personas que no tienen una relación parasocial con ChatGPT, pero que se acostumbraron mucho al hecho de que les respondiera de cierta manera, y validara ciertas cosas, y fuera de apoyo de ciertas maneras”.

Este segmento de usuarios —aquellos que forman lazos emocionales, en diversos grados, con las distintas “personalidades” de diferentes modelos de IA— ha sido un área de creciente preocupación dentro de la comunidad de IA. Han surgido informes que detallan cómo algunas personas han caído en lo que se describe como espirales peligrosas o delirantes, aparentemente alentadas por las respuestas del chatbot. Aunque Altman ha reconocido este aspecto preocupante de la interacción humano-IA, hay poco que sugiera que GPT-5 incorpore salvaguardias más robustas contra tales resultados que sus predecesores.

En última instancia, si bien Altman no lo declaró explícitamente, el “error” al que aludió parece provenir de una subestimación fundamental de lo profundamente que los usuarios valoraban el comportamiento agradable y a menudo validador de GPT-4o. Este descuido sugiere que, a pesar de su rápido crecimiento y destreza tecnológica, OpenAI aún podría carecer de una comprensión integral de su base de usuarios principal y de la compleja dinámica emocional en juego en la interacción humano-IA.