CEO de OpenAI: La mayoría ignora las funciones avanzadas de ChatGPT
El esperado lanzamiento de GPT-5 de OpenAI el 7 de agosto se encontró con un marcado contraste en las reacciones. Mientras la compañía anunciaba su última iteración de ChatGPT como un avance que cambiaría el mundo, tras semanas de intensa expectación y una pulcra presentación en vivo, los usuarios de redes sociales respondieron con una mezcla de confusión y frustración, en gran parte debido a la eliminación inesperada de varios modelos populares heredados.
Posteriormente, Sam Altman, CEO de OpenAI, arrojó luz inadvertidamente sobre la significativa brecha entre las expectativas de la compañía para la recepción de GPT-5 y la realidad. Parece que la vasta mayoría de los usuarios no está interactuando con la inteligencia artificial en todo su potencial. Altman, en una publicación que explicaba los ajustes a los límites de velocidad para los usuarios de pago Plus —quienes abonan 20 dólares mensuales por acceso a un nivel superior del modelo—, reveló una estadística sorprendente: antes del lanzamiento de GPT-5, solo el 1% de los usuarios no pagadores y un mero 7% de los usuarios de pago consultaban activamente un “modelo de razonamiento”.
Los modelos de razonamiento están diseñados para “reflexionar” sobre los problemas antes de formular una respuesta, participando en un proceso computacional más deliberado. Esto implica planificar, verificar e iterar para refinar los resultados, particularmente para tareas donde la precisión lógica es primordial. Sin embargo, es crucial recordar que, a pesar del término “pensar”, los modelos de IA no operan con cognición o conciencia humana. Que la abrumadora mayoría de los usuarios, tanto gratuitos como de pago, eviten estos modelos más capaces es similar a comprar un coche de alto rendimiento y conducirlo consistentemente solo en primera o segunda marcha, para luego preguntarse sobre su percibida falta de eficiencia. Es como un concursante de un programa de preguntas que suelta la primera respuesta que le viene a la mente, sin importar la exactitud.
Muchos usuarios, al parecer, priorizan la velocidad y la conveniencia inmediatas sobre la calidad y profundidad de las interacciones con los chatbots de IA. Esta preferencia fue evidente en el lamento generalizado por la eliminación temporal de GPT-4o, un modelo heredado que luego fue reinstalado para los usuarios de pago de ChatGPT tras una campaña de usuarios concertada. Sin embargo, al buscar respuestas de una IA sofisticada, la precisión y la exhaustividad suelen ser primordiales. Una respuesta ligeramente más lenta y deliberada es frecuentemente superior a una rápida pero potencialmente incorrecta.
La compensación inherente de los modelos de razonamiento es que su mayor deliberación exige más esfuerzo computacional, lo que los hace más lentos y costosos de operar. En consecuencia, los proveedores de IA suelen ofrecer versiones más rápidas y menos intensivas computacionalmente como predeterminadas, requiriendo que los usuarios opten activamente por las alternativas más exhaustivas, a menudo a través de un menú desplegable. Las convenciones de nombres de modelos de OpenAI, a menudo opacas en el pasado, complicaron aún más esta elección, dificultando que los usuarios discernieran si estaban accediendo a la versión más capaz, la de “pensamiento”. Desde entonces, la compañía ha comenzado a ajustar esto en respuesta a los comentarios de los usuarios.
Incluso con el lanzamiento de GPT-5, donde la distinción entre el modelo insignia y su modo de “pensamiento” —que ofrece “respuestas más exhaustivas”— es más aparente, solo uno de cada cuatro usuarios de pago elige actualmente priorizar la exhaustividad. Para muchos, la breve espera de un minuto frente a un segundo para una respuesta de IA es evidentemente demasiado larga, a pesar de la posibilidad de realizar múltiples tareas mientras el modelo procesa.
Este comportamiento del usuario proporciona una respuesta convincente a una pregunta significativa sobre la adopción de la IA: ¿por qué solo alrededor de un tercio de los estadounidenses que han utilizado un chatbot lo consideran “extremadamente” o “muy” útil (una tasa la mitad que la de los expertos en IA), mientras que uno de cada cinco lo encuentra “nada útil” (el doble de la tasa entre los expertos)? El problema subyacente es claro: un gran segmento del público está fundamentalmente utilizando mal la IA. Están intentando abordar preguntas complejas y de varias partes sin permitir que la IA participe en el proceso de “pensamiento” computacional necesario, tratando efectivamente una herramienta sofisticada como una máquina de respuestas simple e instantánea.
Para aprovechar verdaderamente la IA generativa, los usuarios deben aprovechar los esfuerzos de los proveedores para hacer accesibles modelos más capaces. Involucrar a la IA en sus modos de “pensamiento”, recordando que no es pensamiento humano, puede desbloquear resultados significativamente más valiosos y precisos, fomentando una relación más productiva con esta tecnología en evolución.