CEO de OpenAI revela por qué los usuarios desaprovechan ChatGPT
La presentación de GPT-5, la última iteración de ChatGPT de OpenAI, el 7 de agosto, fue recibida con un marcado contraste en las reacciones. Mientras la compañía anunció su lanzamiento como un momento transformador, respaldado por semanas de fervorosa anticipación y una demostración meticulosamente elaborada transmitida en vivo, los usuarios de redes sociales respondieron con una mezcla de confusión y frustración, en gran parte debido a la eliminación inesperada de varios modelos familiares y ampliamente utilizados.
A raíz de esta recepción, el CEO de OpenAI, Sam Altman, arrojó luz inadvertidamente sobre la significativa disparidad entre las grandes expectativas de la compañía para GPT-5 y la experiencia real del público. Su explicación, provocada por las quejas de los usuarios sobre límites de velocidad drásticamente reducidos para los suscriptores de pago de Plus —que invierten 20 dólares mensuales para acceder a un nivel superior del modelo—, reveló una idea crítica: una vasta mayoría de usuarios no están interactuando con la IA en todo su potencial. Específicamente, antes del lanzamiento de GPT-5, solo el 1% de los usuarios no pagadores y únicamente el 7% de los suscriptores de pago utilizaban un “modelo de razonamiento” como o3.
Los modelos de razonamiento están diseñados para procesar problemas meticulosamente y deliberar antes de formular una respuesta. Sin embargo, es crucial recordar que estos modelos de IA no poseen conciencia o procesos de pensamiento similares a los humanos. Aun así, la analogía se mantiene: no involucrar estas capacidades avanzadas, como hizo la abrumadora mayoría de los usuarios, es similar a comprar un vehículo de alto rendimiento pero conducirlo constantemente solo en primera o segunda marcha, y luego preguntarse por qué el viaje se siente ineficiente. O, para usar otra comparación, es como participar en un programa de preguntas y soltar la primera respuesta que viene a la mente, en lugar de tomarse un momento para considerar la pregunta.
Esta preferencia generalizada por la velocidad y la gratificación inmediata sobre la profundidad y la calidad en las interacciones con los chatbots de IA explica por qué muchos usuarios lamentaron la eliminación inicial de GPT-4o, un modelo anterior que fue restablecido posteriormente para los usuarios de pago de ChatGPT tras una considerable protesta pública. Si bien las respuestas rápidas pueden parecer convenientes, el verdadero valor de un chatbot reside en la precisión y la perspicacia de sus respuestas. Una respuesta ligeramente más lenta y deliberada que sea correcta casi invariablemente supera a una rápida pero errónea.
Los modelos de razonamiento requieren inherentemente más esfuerzo computacional, dedicando recursos a planificar, verificar y refinar sus resultados antes de la entrega. Esta deliberación mejorada mejora significativamente la calidad de los resultados, particularmente para tareas donde la precisión lógica es primordial. Sin embargo, esta exhaustividad tiene un costo, tanto en términos de tiempo de procesamiento como de gastos operativos. En consecuencia, los proveedores de IA suelen ofrecer versiones más rápidas y menos “reflexivas” como predeterminadas, requiriendo que los usuarios seleccionen activamente alternativas más capaces a través de menús desplegables. Las convenciones de nomenclatura de modelos pasadas de OpenAI, a menudo opacas, complicaron aún más este problema, dificultando a los usuarios discernir qué versión ofrecía capacidades de razonamiento superiores. Si bien GPT-5 tenía como objetivo simplificar esto, los comentarios de los usuarios indican que la claridad sigue siendo un desafío, lo que llevó a la compañía a refinar aún más su interfaz.
Para muchos, esperar un minuto para una respuesta completa generada por IA, en lugar de solo un segundo, es un inconveniente menor que se puede manejar fácilmente realizando múltiples tareas. Sin embargo, esta breve pausa parece ser un disuasivo significativo para otros. Incluso después del lanzamiento de GPT-5, que hizo más explícita la distinción entre el “buque insignia” GPT-5 y su variante más exhaustiva y “pensante”, solo uno de cada cuatro usuarios de pago optó por las respuestas en profundidad.
Estos datos ofrecen una explicación crucial para una tendencia más amplia en la adopción de la IA: por qué solo alrededor de un tercio de los estadounidenses que alguna vez han usado un chatbot lo consideran extremadamente o muy útil —una tasa la mitad de la reportada por expertos en IA— y por qué uno de cada cinco lo encuentra inútil en absoluto, el doble de la tasa entre expertos. La respuesta ahora es más clara: una parte sustancial de los usuarios se está acercando a la IA incorrectamente. Están encargando a los chatbots consultas complejas y multifacéticas sin pedirle al sistema que active sus capacidades más sofisticadas y deliberativas, muy parecido a ofrecer una suposición rápida y no verificada en un exigente programa de juegos.