CEO de OpenAI: La mayoría de usuarios malusan las funciones avanzadas de ChatGPT
El reciente lanzamiento de GPT-5 de OpenAI, anunciado por la compañía como un avance que cambiaría el mundo, encontró una reacción sorprendentemente tibia por parte del público. Semanas de intensa publicidad y una presentación pulida transmitida en vivo no fueron seguidas por un aplauso generalizado, sino por confusión e incluso enojo entre los usuarios de redes sociales, muchos de los cuales lamentaron la eliminación de características clave en las que habían llegado a confiar. Esta desconexión entre las grandes expectativas de OpenAI y la experiencia del usuario se hizo rápidamente evidente, y a posteriori, el CEO Sam Altman arrojó luz inadvertidamente sobre el problema central: una parte significativa de los usuarios de IA no están aprovechando la tecnología al máximo de su potencial.
En una publicación en X, Altman abordó las preocupaciones de los suscriptores de pago Plus, que aportan $20 mensuales para acceder a un nivel superior del modelo, con respecto a una drástica reducción en sus límites de tasa de chatbot. Su explicación reveló una estadística reveladora: antes del lanzamiento de GPT-5, solo el 1% de los usuarios no pagadores y un mero 7% de los usuarios pagadores habían consultado alguna vez un “modelo de razonamiento” como o3. Estos modelos de razonamiento están diseñados para “pensar” a través de los problemas antes de generar una respuesta. Sin embargo, es crucial recordar que los modelos de IA no poseen cognición humana; su “pensamiento” se refiere a un proceso computacional estructurado de planificación, verificación e iteración para refinar los resultados.
La abrumadora mayoría de los usuarios, tanto gratuitos como de pago, parecen priorizar la velocidad y las respuestas inmediatas sobre la profundidad y precisión que los modelos de razonamiento pueden proporcionar. Esta tendencia es similar a comprar un coche de alto rendimiento y conducirlo solo en primera o segunda marcha, para luego preguntarse por qué se siente lento, o participar en un concurso de preguntas y soltar la primera idea que viene a la mente sin deliberación. Tal preferencia por la inmediatez explica por qué muchos usuarios expresaron decepción por la ausencia inicial de GPT-4o, un modelo heredado que luego fue reinstaurado para los usuarios de pago de ChatGPT tras una campaña vocal. Sin embargo, al buscar respuestas de un chatbot, la calidad debería, sin duda, tener prioridad. Una respuesta ligeramente más lenta y precisa es generalmente mucho más valiosa que una rápida pero incorrecta.
Los modelos de razonamiento inherentemente requieren más esfuerzo computacional, dedicando recursos a planificar, verificar y refinar su salida. Este enfoque deliberado mejora significativamente la calidad de los resultados, particularmente para tareas donde la precisión lógica es primordial. Sin embargo, este aumento en el tiempo de procesamiento también se traduce en mayores costos operativos para los proveedores. En consecuencia, las empresas de IA a menudo ofrecen por defecto versiones más rápidas y menos “reflexivas” de sus modelos, requiriendo que los usuarios opten explícitamente por las alternativas más capaces, típicamente a través de un menú desplegable. Además, la tendencia histórica de OpenAI hacia convenciones de nombres de modelos oscuras no ha ayudado, dificultando a los usuarios discernir si están accediendo a la versión avanzada de “pensamiento” de GPT-5 o a una variante menos capaz. Tras los comentarios de los usuarios, la compañía está trabajando, según se informa, para simplificar esta distinción.
Para muchos, esperar un minuto adicional para una respuesta superior de IA es un inconveniente menor, fácilmente manejable configurando el modelo para que trabaje y atendiendo otras tareas. Sin embargo, este breve retraso es evidentemente demasiado largo para algunos. Incluso después del lanzamiento de GPT-5, donde la opción de “respuestas más exhaustivas” se presenta de manera más visible, solo uno de cada cuatro usuarios de pago elige utilizar este modo más deliberado.
Estos datos ofrecen una visión crucial sobre una pregunta más amplia que rodea la adopción de la IA: ¿Por qué solo un tercio de los estadounidenses que han usado un chatbot lo consideran “extremadamente” o “muy útil”—una tasa la mitad que la de los expertos en IA—mientras que uno de cada cinco lo encuentra “nada útil”, el doble de la tasa entre los expertos? La respuesta ahora parece más clara: la mayoría de las personas simplemente no están utilizando la IA de manera efectiva. Abordan preguntas complejas y de varias partes con la expectativa de una respuesta instantánea y sin refinar, muy parecido a gritar “¿Qué es el macarrones con queso?” en El Precio Justo o “$42” en Jeopardy! sin detenerse a considerar los matices.
Para aprovechar verdaderamente el poder de la IA generativa, los usuarios deben beneficiarse de los esfuerzos de OpenAI para mejorar el acceso a sus modelos más avanzados. Al activar las capacidades de “pensamiento” de estos chatbots —recordando siempre que no piensan realmente como los humanos— es más probable que los usuarios experimenten el potencial transformador que los expertos en IA ya reconocen.