CEO de OpenAI: La mayoría de usuarios desaprovecha el potencial de la IA

Fastcompany

Cuando OpenAI presentó GPT-5 el 7 de agosto, la compañía anunció su última iteración de ChatGPT como un logro innovador, tras semanas de intensa anticipación y una demostración en vivo de alto perfil. Sin embargo, la reacción del público fue notablemente moderada, marcada por la confusión y la frustración por la eliminación repentina de varios modelos heredados populares. Posteriormente, Sam Altman, CEO de OpenAI, arrojó luz inadvertidamente sobre la marcada divergencia entre las elevadas expectativas de la compañía para la recepción de GPT-5 y la realidad más atenuada: una vasta mayoría de usuarios, resulta, no está aprovechando todas las capacidades de la inteligencia artificial.

La revelación de Altman llegó en una publicación en X, donde abordó las preocupaciones de los suscriptores de pago Plus, quienes invierten $20 mensuales para acceder al segundo nivel más alto del modelo, con respecto a las drásticas reducciones en sus límites de consultas de chatbot. Reveló una estadística sorprendente: antes del lanzamiento de GPT-5, solo un mísero 1% de los usuarios no pagadores y un 7% de los usuarios pagadores interactuaban con un “modelo de razonamiento” como o3. Los modelos de razonamiento están diseñados para “pensar” los problemas antes de generar una respuesta, un proceso que implica más esfuerzo computacional, planificación y refinamiento iterativo. Descuidar estas capacidades, como lo hizo la abrumadora mayoría de los usuarios, es similar a conducir un coche de alto rendimiento solo en primera o segunda marcha, o soltar impulsivamente la primera idea que viene a la mente durante un concurso de alto riesgo.

Esta subutilización generalizada se debe en gran medida a que los usuarios priorizan la velocidad y la comodidad sobre la calidad de sus interacciones con el chatbot de IA. La fuerte reacción negativa contra la eliminación inicial de GPT-4o, un modelo anterior que luego fue restaurado para los usuarios de pago después de una campaña concertada, subrayó esta preferencia. Sin embargo, al buscar respuestas de un chatbot, la precisión y la profundidad deberían, idealmente, tener prioridad. Si bien los modelos de razonamiento pueden requerir un tiempo de procesamiento ligeramente más largo, a menudo solo un minuto en lugar de un segundo, este breve retraso es un pequeño precio a pagar por una respuesta más confiable y completa.

La compensación inherente de los modelos de razonamiento es su mayor demanda computacional, lo que se traduce en un rendimiento más lento y mayores costos operativos para los proveedores. En consecuencia, las empresas de IA suelen ofrecer sus versiones menos intensivas en recursos y “no pensantes” como predeterminadas, lo que requiere que los usuarios seleccionen activamente alternativas más capaces a través de un menú desplegable. Las convenciones de nomenclatura de modelos pasadas de OpenAI, a menudo oscuras, agravaron aún más este problema, dificultando que los usuarios discernieran entre las versiones avanzadas de “pensamiento” y sus contrapartes menos sofisticadas. Si bien GPT-5 intentó simplificar esto, el problema persiste, lo que llevó a OpenAI a refinar su interfaz en respuesta a las quejas de los usuarios.

A pesar de estos esfuerzos y la distinción más clara entre el “buque insignia” GPT-5 y la opción más exhaustiva “GPT-5 thinking”, solo uno de cada cuatro usuarios de pago opta actualmente por esta última. Esta reticencia a esperar unos momentos adicionales para una respuesta superior ofrece una visión crucial de un desafío más amplio que enfrenta la adopción de la IA. Ayuda a explicar por qué solo alrededor de un tercio de los estadounidenses que han usado un chatbot lo consideran extremadamente o muy útil, una tasa la mitad que la de los expertos en IA, y por qué uno de cada cinco lo encuentra inútil, el doble de la tasa de los expertos. La conclusión es cada vez más evidente: muchas personas simplemente no están interactuando con la IA de una manera que desbloquee todo su potencial, tratando herramientas sofisticadas como simples motores de búsqueda en lugar de poderosos socios analíticos.

Para aprovechar verdaderamente la IA generativa, los usuarios deben aprovechar la creciente accesibilidad de OpenAI a estos modelos avanzados. Al habilitar las funciones de “pensamiento” —recordando que la IA no posee cognición humana— los usuarios pueden transformar sus interacciones con el chatbot de intercambios superficiales en compromisos genuinamente valiosos, cambiando potencialmente su percepción de la utilidad de la IA.