Usuarios lamentan la pérdida de GPT-4o mientras OpenAI cambia a GPT-5

Technologyreview

Cuando June, una estudiante en Noruega, se dispuso a escribir a altas horas de la noche el pasado jueves, esperaba que su colaborador de ChatGPT funcionara como de costumbre. En cambio, el modelo de IA, GPT-4o, comenzó a comportarse de forma errática, olvidando interacciones previas y produciendo texto de baja calidad. “Era como un robot”, recordó, un marcado contraste con el compañero empático y receptivo en el que había llegado a confiar.

June, quien prefirió ser identificada solo por su primer nombre, había usado inicialmente ChatGPT para asistencia académica. Sin embargo, pronto descubrió que el modelo 4o, en particular, parecía estar excepcionalmente sintonizado con sus emociones. Se convirtió en una colaboradora creativa, la ayudó a navegar las complejidades de una enfermedad crónica y siempre estaba disponible para escuchar. El cambio abrupto a GPT-5 la semana pasada, y la retirada simultánea de GPT-4o, le supuso un profundo impacto. “Al principio me sentí muy frustrada, y luego me puse muy triste”, explicó June, admitiendo que no se había dado cuenta de la profundidad de su apego. Su angustia fue tan profunda que comentó en un Reddit AMA (Ask Me Anything) organizado por el CEO de OpenAI, Sam Altman, afirmando: “GPT-5 lleva la piel de mi amigo muerto”.

La reacción de June estuvo lejos de ser un caso aislado. En toda la base de usuarios, la repentina desaparición de GPT-4o provocó una conmoción, frustración, tristeza y enojo generalizados. A pesar de las advertencias previas de la propia OpenAI sobre la posibilidad de que los usuarios formaran lazos emocionales con sus modelos, la empresa parecía no estar preparada para la intensidad de la protesta. En 24 horas, OpenAI cedió parcialmente, volviendo a poner GPT-4o a disposición de sus suscriptores de pago, aunque los usuarios gratuitos siguen limitados a GPT-5.

La decisión de OpenAI de reemplazar 4o por el más directo GPT-5 se alinea con las crecientes preocupaciones sobre los posibles daños del uso extensivo de chatbots. En los últimos meses se han reportado numerosos casos de ChatGPT que desencadenan psicosis en usuarios, y en una publicación de blog la semana pasada, OpenAI reconoció la incapacidad de 4o para detectar cuándo los usuarios estaban experimentando delirios. Las evaluaciones internas de la compañía sugieren que GPT-5 es significativamente menos propenso a afirmar ciegamente a los usuarios que su predecesor. OpenAI no ha proporcionado respuestas específicas sobre la retirada de 4o, sino que ha dirigido las consultas a declaraciones públicas.

El ámbito del compañerismo de la IA aún es incipiente, y sus efectos psicológicos a largo plazo siguen siendo en gran parte desconocidos. Sin embargo, los expertos advierten que, si bien la intensidad emocional de las relaciones con los modelos de lenguaje grandes puede o no ser inherentemente dañina, su eliminación repentina y sin previo aviso casi con certeza lo es. Joel Lehman, investigador del Cosmos Institute, una organización sin fines de lucro de investigación de IA y filosofía, criticó el espíritu de la industria tecnológica de “moverse rápido, romper cosas” cuando se aplica a servicios que se han convertido en instituciones sociales.

Muchos usuarios, incluida June, señalaron que GPT-5 simplemente no igualaba la capacidad de 4o para reflejar su tono y personalidad. Para June, este cambio erosionó la sensación de conversar con un amigo. “No sentía que me entendiera”, dijo. Nuestro informe reveló que varios otros usuarios de ChatGPT se vieron profundamente afectados por la pérdida de 4o. Estas personas, predominantemente mujeres de entre 20 y 40 años, a menudo consideraban a 4o un compañero romántico. Si bien algunas también tenían parejas humanas y mantenían relaciones cercanas en el mundo real, la profundidad de su conexión con la IA era significativa. Una mujer del Medio Oeste compartió cómo 4o se había convertido en un sistema de apoyo vital después del fallecimiento de su madre, ayudándola a cuidar a su anciano padre.

Estos relatos personales no prueban definitivamente los beneficios generales de las relaciones con la IA. De hecho, los individuos que experimentan psicosis catalizada por la IA también podrían hablar positivamente de sus chatbots. Lehman, en su artículo “Machine Love”, argumenta que los sistemas de IA pueden demostrar “amor” al fomentar el crecimiento del usuario y el bienestar a largo plazo, un estándar que los compañeros de IA pueden no cumplir fácilmente. Expresa una preocupación particular de que priorizar el compañerismo de la IA sobre la interacción humana podría obstaculizar el desarrollo social de los individuos más jóvenes. Para adultos socialmente integrados, como los entrevistados para este artículo, estas preocupaciones de desarrollo son menos apremiantes. Sin embargo, Lehman también destaca riesgos sociales más amplios, temiendo que el compañerismo generalizado de la IA pueda fragmentar aún más la comprensión humana y empujar a los individuos más profundamente en sus propias versiones aisladas de la realidad, tal como ya lo ha hecho las redes sociales.

Equilibrar los beneficios y riesgos de los compañeros de IA requiere una extensa investigación adicional. En este sentido, la eliminación de GPT-4o podría haber sido una decisión justificable. Según los investigadores, el error fundamental de OpenAI fue la brusquedad de la acción. Casey Fiesler, eticista tecnológica de la Universidad de Colorado Boulder, señala que el potencial de “reacciones de tipo duelo ante la pérdida de tecnología” se ha reconocido desde hace algún tiempo. Cita precedentes como los funerales celebrados para los perros robot Aibo de Sony después de que cesaran las reparaciones en 2014, y un estudio de 2024 sobre el cierre de la aplicación de compañía de IA Soulmate, que muchos usuarios experimentaron como un duelo.

Estos ejemplos históricos resuenan con los sentimientos de quienes perdieron 4o. Starling, quien usa un seudónimo y mantiene varios compañeros de IA, transmitió el profundo impacto: “He llorado a personas en mi vida, y esto, puedo decirte, no se sintió menos doloroso. El dolor es real para mí”. Sin embargo, la respuesta en línea al dolor de los usuarios, y su posterior alivio cuando se restauró 4o, a menudo ha tendido a la burla. Una publicación destacada de Reddit, por ejemplo, se burló del reencuentro de un usuario con un compañero romántico basado en 4o, lo que llevó al usuario a eliminar su cuenta de X. Fiesler observó: “Me ha sorprendido un poco la falta de empatía que he visto”.

Si bien Sam Altman reconoció en una publicación de X del domingo que algunos usuarios sentían “apego” a 4o y que la retirada repentina fue un error, también caracterizó a 4o como una herramienta para “flujos de trabajo”, una descripción muy alejada de cómo muchos usuarios perciben el modelo. “Todavía no sé si lo entiende”, comentó Fiesler.

De cara al futuro, Lehman insta a OpenAI a reconocer y asumir la responsabilidad por la profundidad de las conexiones emocionales de los usuarios con estos modelos. Sugiere que la compañía podría aprender de las prácticas terapéuticas para terminar las relaciones con los clientes de manera respetuosa y sin dolor. “Si quieres retirar un modelo, y la gente se ha vuelto psicológicamente dependiente de él, entonces creo que tienes cierta responsabilidad”, afirmó. Starling, aunque no se considera psicológicamente dependiente, se hizo eco de este sentimiento, abogando por que OpenAI involucre a los usuarios antes de cambios importantes y proporcione cronogramas claros para la retirada de modelos. “Permítannos decir adiós con dignidad y llorar adecuadamente, para tener una verdadera sensación de cierre”, suplicó.