CEO de OpenAI: ¿Estamos subutilizando la IA?

Fastcompany

El lanzamiento de GPT-5 por parte de OpenAI el 7 de agosto fue anunciado por la compañía como un salto monumental, precedido por semanas de intensa expectación y una pulcra presentación en vivo de sus capacidades. Sin embargo, la reacción del público fue notablemente tibia, marcada por la confusión y la frustración debido a la eliminación de varios modelos de chatbot familiares en los que los usuarios habían llegado a confiar.

Posteriormente, el CEO de OpenAI, Sam Altman, arrojó luz inadvertidamente sobre la marcada desconexión entre las grandes expectativas de la compañía para GPT-5 y la realidad de su recepción. Parece que una gran mayoría de los usuarios no están aprovechando la inteligencia artificial a su máximo potencial. En una reciente publicación en redes sociales, abordando las preocupaciones de los suscriptores Plus de pago (quienes abonan 20 dólares mensuales por acceso mejorado) sobre las drásticas reducciones en sus límites de uso de chatbot, Altman reveló una estadística sorprendente: antes del lanzamiento de GPT-5, solo el 1% de los usuarios no pagadores y un mero 7% de los usuarios pagadores interactuaban con un “modelo de razonamiento” como o3.

Los modelos de razonamiento están diseñados para “reflexionar” sobre los problemas antes de formular una respuesta, involucrándose en un proceso más deliberado. Si bien es crucial recordar que los modelos de IA no poseen cognición o conciencia similar a la humana, esta “deliberación” interna los distingue. No utilizar estos modos avanzados, como hizo la vasta mayoría de los usuarios, es similar a comprar un vehículo de alto rendimiento y conducirlo solo en sus marchas más bajas, para luego preguntarse por qué el viaje se siente tan ineficiente. Es como un concursante de un programa de preguntas que suelta la primera respuesta que le viene a la mente, en lugar de pausar para considerar la mejor respuesta.

Muchos usuarios evidentemente priorizan la velocidad inmediata y la conveniencia sobre la profundidad y calidad de las interacciones con los chatbots de IA. Esta preferencia fue evidente en el lamento generalizado tras la eliminación inicial de GPT-4o, un modelo anterior que fue restaurado posteriormente para los usuarios de pago de ChatGPT después de una considerable presión pública. Sin embargo, al buscar información fiable o soluciones creativas de un chatbot, una respuesta marginalmente más lenta pero precisa es casi siempre preferible a una rápida pero potencialmente incorrecta.

Estos modelos de “razonamiento” inherentemente demandan un mayor esfuerzo computacional, ya que planifican, verifican e iteran internamente antes de generar una salida. Esta deliberación adicional mejora significativamente los resultados para tareas que requieren lógica precisa. Sin embargo, esta exhaustividad tiene un costo, tanto en términos de tiempo de procesamiento como de recursos computacionales. En consecuencia, los proveedores de IA a menudo recurren a versiones más rápidas y menos “reflexivas”, lo que requiere que los usuarios seleccionen activamente alternativas más capaces a través de menús desplegables. Las convenciones de nomenclatura de modelos históricamente complejas de OpenAI agravaron aún más este problema, aunque GPT-5 buscaba simplificarlo, sin lograrlo por completo. Los usuarios aún tienen dificultades para discernir fácilmente si están accediendo a la versión más sofisticada y “con capacidad de razonamiento” de GPT-5 o a una iteración menos capaz, un problema que OpenAI, según se informa, está abordando ahora después de los comentarios de los usuarios.

Incluso después de la introducción de GPT-5, que hizo más evidente la distinción entre el modelo insignia y su variante “pensante” (prometiendo “respuestas más completas”), solo uno de cada cuatro usuarios de pago opta actualmente por esta exhaustividad mejorada. Esta observación proporciona una respuesta convincente a una pregunta desconcertante sobre la adopción de la IA: ¿por qué solo alrededor de un tercio de los estadounidenses que han usado un chatbot lo describen como “extremadamente” o “muy útil” (la mitad de la tasa entre los expertos en IA), mientras que una quinta parte lo considera “nada útil” (el doble de la tasa de los expertos)? Los datos sugieren un patrón claro: muchas personas simplemente no están usando la IA a su máxima capacidad. Están asignando a chatbots sofisticados preguntas complejas y de varias partes sin habilitar los procesos internos diseñados para manejar tales desafíos de manera efectiva. Para aquellos que consideran o continúan usando un chatbot, aprovechar los esfuerzos recientes de OpenAI para ampliar el acceso a sus modelos más potentes es clave. Activar estos modos de “pensamiento” —recordando que el “pensamiento” de la IA es algorítmico, no humano— puede transformar fundamentalmente la utilidad y fiabilidad de la IA generativa, convirtiendo potencialmente a los escépticos en defensores.