CEO de OpenAI: La mayoría de usuarios desaprovecha el potencial de la IA

Fastcompany

El reciente lanzamiento de GPT-5, la última iteración de ChatGPT de OpenAI, el 7 de agosto, fue recibido con un marcado contraste de reacciones. OpenAI había generado meticulosamente semanas de anticipación, culminando en una deslumbrante presentación transmitida en vivo que anunciaba el modelo como un avance que cambiaría el mundo. Sin embargo, entre los usuarios de redes sociales, la respuesta fue notablemente silenciada, caracterizada más por la confusión y la frustración ante la eliminación de varios modelos clave en los que muchos habían llegado a confiar.

Esta importante desconexión entre las altas expectativas de OpenAI y la recepción más bien tibia del público fue iluminada inadvertidamente por el CEO Sam Altman. Su explicación reveló una verdad fundamental: un gran número de usuarios no están interactuando con la inteligencia artificial en toda su capacidad. En una publicación que explicaba por qué OpenAI parecía estar “perjudicando” a sus usuarios Plus de pago, quienes abonan 20 dólares mensuales por acceso a un nivel superior del modelo, Altman reveló que un mero 1% de los usuarios no de pago habían consultado un “modelo de razonamiento” como o3 antes del lanzamiento de GPT-5. Entre los suscriptores de pago, esta cifra solo aumentó ligeramente al 7%.

Los modelos de razonamiento están diseñados para “pensar” a través de los problemas antes de formular una respuesta. Sin embargo, es crucial recordar que los modelos de IA no son humanos y no poseen cognición similar a la humana, a pesar de la útil analogía de “pensar”. La abrumadora mayoría de los usuarios, tanto gratuitos como de pago, estaban omitiendo estas capacidades. Esta omisión es similar a comprar un coche de alto rendimiento y usar solo su primera y segunda marcha, y luego preguntarse por qué la experiencia de conducción se siente limitada; o participar en un concurso de preguntas y soltar la primera idea que viene a la mente para cada pregunta, sin importar la precisión.

Muchos usuarios, al parecer, priorizan la velocidad y la conveniencia inmediatas sobre la calidad y profundidad de las respuestas de los chatbots de IA. Esta preferencia fue evidente en el lamento generalizado por la pérdida temporal de GPT-4o, un modelo anterior que fue restaurado posteriormente para los usuarios de pago de ChatGPT tras una campaña de usuarios concertada. Sin embargo, al buscar respuestas de un chatbot sofisticado, la precisión y la exhaustividad son primordiales. Una respuesta ligeramente más lenta y deliberada que sea correcta es invariablemente más valiosa que una rápida pero errónea.

Los modelos de razonamiento están diseñados para gastar un mayor esfuerzo computacional en la planificación, verificación e iteración antes de entregar su resultado final. Esta deliberación extendida mejora significativamente los resultados para tareas donde la precisión lógica es crítica. Naturalmente, este proceso es más lento y más intensivo en computación, lo que lo hace más costoso para los proveedores. En consecuencia, los desarrolladores de IA a menudo ofrecen por defecto las versiones más básicas, “no pensantes”, requiriendo que los usuarios opten activamente por las alternativas más capaces a través de un menú desplegable. A esta complejidad se sumaron las convenciones de nombres de modelos previamente opacas de OpenAI, un problema que GPT-5 intentó abordar, aunque con éxito limitado. Los usuarios todavía tienen dificultades para discernir fácilmente si están accediendo a la versión avanzada “pensante” de GPT-5 o a una variante menos capaz. Reconociendo los comentarios de los usuarios, la compañía está trabajando, según se informa, en refinar este aspecto.

Para algunos, esperar un minuto por una respuesta completa de IA en lugar de un segundo podría parecer insignificante; simplemente se puede iniciar la consulta y atender otras tareas. Sin embargo, para muchos, incluso esta breve pausa resulta demasiado larga. Incluso después del lanzamiento de GPT-5, donde la distinción entre el “modelo insignia” GPT-5 y “GPT-5 thinking” (que promete explícitamente “respuestas más completas”) es más aparente, solo uno de cada cuatro usuarios de pago elige la opción más profunda y completa.

Estos datos reveladores ofrecen una visión crucial sobre una pregunta más amplia con respecto a la adopción de la IA: ¿Por qué solo alrededor de un tercio de los estadounidenses que alguna vez han usado un chatbot lo consideran “extremadamente” o “muy” útil (una tasa la mitad que entre los expertos en IA), mientras que uno de cada cinco lo considera “nada útil” (el doble de la tasa entre los expertos)? La respuesta ahora parece más clara: la mayoría de los individuos están utilizando fundamentalmente mal la tecnología. Están encargando a chatbots avanzados preguntas complejas y de varias partes sin aprovechar la capacidad de los modelos para un procesamiento reflexivo.

Por lo tanto, para aprovechar verdaderamente el poder de la IA generativa, los usuarios deben beneficiarse de los esfuerzos de OpenAI para mejorar el acceso al modelo. Al configurar conscientemente la IA en sus modos de “pensamiento” —recordando que este es un proceso computacional, no pensamiento humano— es probable que los usuarios encuentren la experiencia mucho más valiosa y convincente. Este enfoque representa la forma más efectiva de interactuar con la IA moderna.