CEO de OpenAI: La mayoría de usuarios subutiliza la IA, priorizando velocidad
El lanzamiento de GPT-5, la última iteración del modelo de IA generativa de OpenAI, el 7 de agosto, fue recibido con reacciones contrastantes. Mientras la compañía lo anunciaba como un salto transformador, tras semanas de intensa expectación y una pulcra presentación en vivo, los usuarios de redes sociales respondieron con una mezcla de confusión y frustración, particularmente por la eliminación de varios modelos clave en los que habían llegado a confiar.
Posteriormente, Sam Altman, CEO de OpenAI, arrojó luz inadvertidamente sobre la significativa disparidad entre las expectativas de la compañía para la recepción de GPT-5 y la realidad. Parece que la gran mayoría de los usuarios no está aprovechando todo el potencial de la IA. Altman reveló que antes del debut de GPT-5, solo un 1% de los usuarios no pagadores, y apenas un 7% de los suscriptores al nivel Plus de 20 dólares al mes, habían consultado alguna vez un “modelo de razonamiento” como o3. Esta revelación se produjo en medio de explicaciones por la drástica reducción de los límites de acceso para los usuarios de pago, lo que planteó preguntas sobre el valor que estaban recibiendo.
Los modelos de razonamiento están diseñados para procesar meticulosamente los problemas antes de formular una respuesta. Si bien es crucial recordar que estos modelos de IA no poseen una cognición similar a la humana, simulan un enfoque analítico más profundo. La abrumadora mayoría de usuarios, tanto de pago como no pagadores, que optan por no usar estos modelos es similar a comprar un coche de alto rendimiento y conducirlo solo en primera o segunda marcha, y luego preguntarse por qué no rinde de manera óptima.
Muchos usuarios, al parecer, priorizan la gratificación inmediata y la conveniencia sobre la calidad y profundidad de las interacciones con los chatbots de IA. Esta preferencia fue evidente en el lamento generalizado por la pérdida temporal de GPT-4o, un modelo anterior que finalmente fue reinstaurado para los usuarios de pago después de la demanda pública. Sin embargo, al buscar respuestas de un chatbot, la precisión y la exhaustividad son primordiales. Una respuesta ligeramente más lenta, pero correcta, es invariablemente más valiosa que una rápida pero errónea.
Los modelos de razonamiento están diseñados para emplear un mayor esfuerzo computacional en la planificación, la interreferencia y el refinamiento de sus respuestas. Este proceso deliberado mejora significativamente la calidad de los resultados, especialmente para tareas donde la precisión lógica es crítica. La contrapartida, sin embargo, es un mayor tiempo de procesamiento y mayores costos operativos. En consecuencia, los proveedores de IA a menudo recurren a versiones más rápidas y menos analíticas por defecto, lo que requiere que los usuarios seleccionen activamente alternativas más capaces a través de las opciones de interfaz. El historial de OpenAI de convenciones de nombres de modelos complejos y a menudo oscuros complicó aún más este problema, dificultando a los usuarios discernir las capacidades de las diferentes versiones, un problema que GPT-5 intentó abordar, aunque con un éxito mixto, lo que provocó más quejas de los usuarios y ajustes continuos por parte de la empresa.
Para muchos, esperar un minuto adicional para una respuesta superior de la IA es un inconveniente menor, fácilmente manejable mediante la multitarea. Sin embargo, para algunos, este breve retraso parece ser una barrera significativa. Incluso después del lanzamiento de GPT-5, donde la distinción entre el “modelo insignia” y la opción más exhaustiva “GPT-5 thinking” es más aparente, solo uno de cada cuatro usuarios de pago solicita activamente respuestas completas.
Este dato pasado por alto ofrece una respuesta convincente a una pregunta más amplia sobre la adopción de la IA: ¿por qué solo alrededor de un tercio de los estadounidenses que han utilizado un chatbot lo consideran extremadamente o muy útil —una tasa la mitad que la de los expertos en IA—, mientras que uno de cada cinco lo encuentra inútil, el doble de la tasa de los expertos? La explicación ahora parece clara: un gran segmento del público está subutilizando la IA. Están planteando preguntas complejas y de varias partes a los chatbots sin permitir el procesamiento más profundo que produce respuestas verdaderamente perspicaces.
Para aprovechar verdaderamente el poder de la IA generativa, los usuarios deberían beneficiarse del acceso más amplio a modelos avanzados que proveedores como OpenAI están ofreciendo cada vez más. Al optar por los modos más analíticos y de “pensamiento” —recordando que la IA no piensa realmente como los humanos— los usuarios pueden desbloquear una experiencia más valiosa y fiable, transformando potencialmente su percepción de la utilidad de la IA.