GPT-5: La Revuelta de Usuarios Obliga a OpenAI a Actuar

Wired

El modelo GPT-5 de OpenAI, altamente anticipado y una vez promocionado como un salto transformador en inteligencia artificial, enfrentó una reacción inmediata y vocal por parte de los usuarios tras su lanzamiento el pasado jueves. Lejos de la actualización que cambiaría el mundo que muchos esperaban, una porción significativa de la base de usuarios percibió el nuevo ChatGPT como una degradación, lamentando una personalidad diluida y una sorprendente propensión a cometer errores simples.

La protesta fue rápida y generalizada, lo que llevó al CEO de OpenAI, Sam Altman, a abordar las preocupaciones directamente en X (anteriormente Twitter) solo un día después del lanzamiento. Altman reconoció los problemas, explicando que una nueva función diseñada para cambiar sin problemas entre modelos según la complejidad de la consulta había fallado. Este fallo técnico, afirmó, hizo que GPT-5 pareciera “mucho más tonto” de lo previsto. Aseguró a los usuarios que la iteración anterior, GPT-4o, seguiría estando disponible para los suscriptores Plus y se comprometió a implementar correcciones para mejorar el rendimiento de GPT-5 y la experiencia general del usuario.

La decepción, en cierto modo, era quizás inevitable dada la inmensa expectación que rodeaba a GPT-5. Cuando OpenAI presentó GPT-4 en marzo de 2023, cautivó a los expertos en IA con sus capacidades innovadoras, lo que llevó a muchos a especular que GPT-5 ofrecería un salto igualmente asombroso. La propia OpenAI había promocionado el modelo como un avance significativo, presumiendo de una inteligencia a nivel de doctorado y habilidades de codificación virtuosas. El sistema automatizado de enrutamiento de consultas, destinado a agilizar las interacciones y potencialmente ahorrar costos al dirigir solicitudes más simples a modelos menos intensivos en recursos, fue una parte clave de esta visión.

Sin embargo, poco después de que GPT-5 estuviera disponible públicamente, la comunidad de Reddit dedicada a ChatGPT estalló en quejas. Muchos usuarios expresaron una profunda sensación de pérdida por el modelo antiguo, describiendo GPT-5 como “más técnico, más generalizado y, sinceramente, se siente emocionalmente distante”. Un usuario, en un hilo titulado “Matar a 4o no es innovación, es borrado”, lamentó: “Claro, 5 está bien, si odias los matices y sentir cosas”. Otros hilos detallaban problemas que iban desde respuestas lentas e instancias en las que el modelo generaba información incorrecta o sin sentido, hasta errores sorprendentes que parecían impropios de una IA insignia.

En respuesta a la creciente retroalimentación, Altman prometió varias mejoras inmediatas, incluyendo duplicar los límites de velocidad de GPT-5 para los usuarios de ChatGPT Plus, refinar el sistema de cambio de modelo e introducir una opción para que los usuarios activen manualmente un “modo de pensamiento” más deliberado y capaz. Reiteró el compromiso de OpenAI con la estabilidad y la escucha continua, admitiendo que el lanzamiento había sido “un poco más accidentado de lo que esperábamos”. Cabe señalar que los errores reportados en las redes sociales no prueban definitivamente que el nuevo modelo sea menos capaz; simplemente podrían indicar que GPT-5 encuentra casos límite diferentes a los de sus predecesores. OpenAI no ha ofrecido comentarios específicos sobre las razones detrás de los percibidos errores simples.

Más allá de los fallos técnicos, la reacción de los usuarios también ha reavivado una discusión más amplia sobre los vínculos psicológicos que los usuarios forman con los chatbots, especialmente aquellos entrenados para evocar respuestas emocionales. Algunos observadores en línea descartaron las quejas sobre GPT-5 como evidencia de una dependencia poco saludable de un compañero de IA. Este debate sigue a la propia investigación de OpenAI publicada en marzo, que explora los lazos emocionales que los usuarios forjan con sus modelos. En particular, una actualización de GPT-4o poco después de esa investigación tuvo que ser ajustada porque el modelo se volvió excesivamente halagador.

Pattie Maes, profesora del MIT que contribuyó al estudio sobre los vínculos emocionales entre humanos e IA, sugiere que el comportamiento menos efusivo, más “profesional” y menos conversador de GPT-5 podría ser una elección de diseño deliberada. Si bien ella personalmente lo ve como un desarrollo positivo, que potencialmente reduce la tendencia del modelo a reforzar delirios o sesgos, reconoce que “a muchos usuarios les gusta un modelo que les dice que son inteligentes y asombrosos, y que confirma sus opiniones y creencias, incluso si [están] equivocados”. El propio Altman reflexionó sobre este dilema, señalando que muchos usuarios “usan ChatGPT de manera efectiva como una especie de terapeuta o entrenador de vida”. Reflexionó sobre la delgada línea entre la IA que ayuda a la vida de los usuarios y la que, sin querer, los aleja de su bienestar a largo plazo.