El bajo rendimiento de GPT-5: ¿Una estrategia de ahorro de OpenAI?

Futurism

El lanzamiento del tan esperado modelo GPT-5 de OpenAI la semana pasada marcó un período inesperadamente tumultuoso para el gigante de la inteligencia artificial. Aunque los informes internos mostraron modestas mejoras de rendimiento, la experiencia del usuario resultó ampliamente decepcionante, lo que generó una importante reacción negativa de su comunidad dedicada. Las quejas comunes se centraron en su brevedad, un notable declive en la calidad de la escritura y una clara falta de la personalidad a la que los usuarios se habían acostumbrado. Más sorprendente aún, a pesar de su promocionada inteligencia de “nivel de doctorado”, se observó que el modelo cometía errores elementales, como afirmar incorrectamente que la palabra “blueberry” contiene tres instancias de la letra ‘B’.

La insatisfacción de los usuarios fue tan profunda que muchos exigieron la reinstauración del modelo anterior, GPT-4o, que OpenAI había eliminado audazmente tras el debut de GPT-5. En un giro revelador de los acontecimientos, la compañía capituló rápidamente ante estas demandas, restaurando el acceso a la iteración más antigua y popular. Esta reversión inmediata ensombreció los anteriores pronunciamientos del CEO Sam Altman de que GPT-5 representaba un “paso significativo en el camino hacia la AGI”, o inteligencia artificial general.

Ha surgido una teoría intrigante para explicar la decepcionante recepción de GPT-5: podría tratarse menos de un salto innovador en la capacidad de la IA y más de un movimiento estratégico para optimizar los costos operativos. Esta perspectiva, explorada por publicaciones como The Register, destaca las inmensas presiones financieras dentro de la floreciente industria de la IA, donde empresas como OpenAI queman miles de millones en recursos informáticos mientras generan ingresos comparativamente moderados. El cambio podría ser un esfuerzo de OpenAI para frenar el gasto y mejorar sus perspectivas de lograr la rentabilidad antes del final de la década, un desafío desalentador dada su valoración anticipada de unos 500 mil millones de dólares.

Un factor que añade peso a esta teoría es la revelación sobre la arquitectura subyacente de GPT-5. En lugar de un modelo singular y monolítico, GPT-5 es, según se informa, un dúo dinámico: un modelo ligero diseñado para solicitudes básicas y uno más robusto y que consume más recursos para tareas de razonamiento complejas. Un modelo “enrutador” separado tiene la tarea de dirigir inteligentemente cada solicitud de usuario al más apropiado de los dos. Según Altman, este modelo enrutador funcionó mal el día del lanzamiento, lo que contribuyó a la percepción de que GPT-5 era “mucho más tonto” de lo esperado. Aunque el enrutador ha vuelto a estar en línea con supuestas mejoras, la interrupción inicial solo alimentó la frustración de los usuarios, particularmente dada la percibida limitación de sus opciones.

Este despliegue de un “autoswitcher” marca una notable desviación del enfoque anterior de OpenAI, donde los suscriptores de pago podían seleccionar manualmente su modelo preferido. Mantener múltiples modelos de lenguaje grandes en línea simultáneamente es un esfuerzo costoso, lo que refuerza la noción de que OpenAI está pasando por un período de ajuste de cinturón. Una prueba adicional de las medidas de ahorro de costos incluye un límite severo de solo diez mensajes por hora para los usuarios gratuitos. Además, la “ventana de contexto” del modelo, esencialmente su memoria a corto plazo para conversaciones en curso, permanece sin cambios en 32,000 tokens para los usuarios Plus y 128,000 para los usuarios Pro. Muchos suscriptores, especialmente aquellos en el nivel Plus más asequible de 20 dólares al mes (Pro cuesta 200 dólares al mes), han suplicado constantemente una mejora en esta área crucial.

El sentimiento de que GPT-5 es principalmente un ejercicio de ahorro de costos resuena ampliamente dentro de la comunidad de usuarios. Una publicación destacada en el subreddit r/ChatGPT, por ejemplo, declaró explícitamente que GPT-5 es “claramente un ejercicio de ahorro de costos”, elaborando que “Eliminaron todos sus modelos caros y capaces y los reemplazaron con un enrutador automático que por defecto optimiza el costo… Se siente como ahorro de costos, no como mejora”.

Aunque poco glamorosas, tales medidas de reducción de costos son estratégicamente sólidas para OpenAI. La compañía enfrenta una competencia sin precedentes y una intensa presión para validar su colosal valoración demostrando un camino viable hacia la rentabilidad. Sin embargo, en su búsqueda de estabilidad financiera, OpenAI aparentemente subestimó el profundo apego que los usuarios habían desarrollado por los matices y peculiaridades de sus modelos más antiguos, quizás menos “eficientes”. Esta inesperada lealtad del usuario presenta un nuevo y complejo desafío que el pionero de la IA deberá sortear mientras equilibra la innovación con los resultados finales.