GPT-5 de OpenAI: Lanzamiento accidentado y temor a guerra de precios
El panorama de la inteligencia artificial continúa su rápida evolución, marcado por lanzamientos de productos de alto riesgo, maniobras competitivas agresivas y una creciente confrontación con el impacto real de la tecnología en empresas y carreras. La semana pasada, OpenAI presentó su esperado GPT-5, mientras que Anthropic hizo una audaz jugada por contratos de IA gubernamentales, y el mercado laboral tecnológico reveló una nueva y cruda realidad para los graduados en ciencias de la computación.
El lanzamiento de GPT-5 de OpenAI a través de ChatGPT llegó con múltiples variantes y una estrategia de precios agresiva, posicionando los nuevos modelos como “más inteligentes, más rápidos, más útiles y más precisos”, con una reducción significativa de las fabricaciones generadas por IA. Los suscriptores gratuitos y Plus ahora tienen acceso a GPT-5 y GPT-5-mini, mientras que el nivel Pro de $200/mes desbloquea GPT-5-pro y GPT-5-thinking. La interfaz de chat ha sido diseñada para dirigir automáticamente a los usuarios al modelo más apropiado según su tarea y nivel de suscripción. El precio de la API es particularmente competitivo, con GPT-5 cobrando $1.25 por millón de tokens de entrada y $10 por millón de tokens de salida, lo que reduce sustancialmente los precios de rivales como Opus 4.1 de Anthropic, que se sitúa en $15 y $75 respectivamente, e incluso supera a muchos niveles de Google Gemini Flash a escala. Las nuevas características incluyen integraciones con servicios como Gmail, Contactos y Calendario para usuarios Pro, junto con personalidades preestablecidas personalizables y opciones de color de chat, con planes de integrar estas personalidades en un modo de voz avanzado.
A pesar del ambicioso lanzamiento, el debut de GPT-5 no estuvo exento de problemas. OpenAI eliminó inicialmente modelos heredados como GPT-4o sin previo aviso, y el nuevo conmutador automático experimentó fallas parciales en su primer día, lo que generó críticas de usuarios y desarrolladores. El CEO Sam Altman abordó rápidamente los problemas, disculpándose por el “accidentado” lanzamiento, duplicando los límites de velocidad Plus y reinstaurando GPT-4o para usuarios de pago. Desde entonces, ha regresado un selector de modelos, que ofrece a los usuarios opciones entre los modos GPT-5 (Automático, Rápido y Pensamiento) y acceso a modelos heredados seleccionados. Las evaluaciones iniciales indican que GPT-5-Thinking y GPT-5-Pro mejoran significativamente las capacidades de razonamiento y reducen las imprecisiones, mientras que el GPT-5 base, o modo “Rápido”, se desempeña de manera similar a GPT-4o. Muchos desarrolladores han informado un fuerte rendimiento de codificación y un convincente valor de “inteligencia por dólar”, aunque los puntos de referencia externos muestran resultados mixtos en comparación con los modelos superiores de Anthropic, Google y xAI. La agresiva estrategia de precios bien podría encender una guerra de precios más amplia en el mercado de modelos de lenguaje grandes.
En un desafío directo a OpenAI, Anthropic anunció una oferta para proporcionar su modelo de IA Claude a las tres ramas del gobierno de EE. UU. (ejecutiva, legislativa y judicial) por solo $1 durante un año. Este movimiento intensifica la oferta existente de $1 de ChatGPT Enterprise de OpenAI, que estaba limitada a la rama ejecutiva federal. Anthropic proporcionará tanto su Claude general para Empresas como un Claude especializado para el Gobierno, este último diseñado para soportar cargas de trabajo FedRAMP High para datos sensibles pero no clasificados. La compañía enfatiza sus “estándares de seguridad intransigentes”, citando varias certificaciones e integraciones que permiten a las agencias acceder a Claude a través de la infraestructura segura existente a través de socios como AWS, Google Cloud y Palantir, junto con soporte técnico dedicado para la integración.
Mientras las empresas invierten miles de millones en IA, está surgiendo una nueva “paradoja de la productividad”, lo que sugiere que la adopción generalizada aún no se ha traducido en ganancias comerciales significativas y medibles. Investigaciones de McKinsey indican que, aunque aproximadamente el 80% de las empresas informan usar IA generativa, una proporción similar no ha visto un impacto sustancial en sus resultados. Las esperanzas iniciales de que las herramientas de IA agilizarían las operaciones administrativas y el servicio al cliente se han visto atenuadas por desafíos como las falsedades generadas por IA, los resultados poco fiables y los complejos obstáculos de integración. Más allá del sector tecnológico, el entusiasmo por la IA a menudo ha superado la capacidad de transformar los programas piloto en implementaciones de grado de producción que ahorren costos. Los problemas centrales radican en los altos costos de implementación, las dificultades con la calidad y gobernanza de los datos, y la continua necesidad de supervisión humana para verificar los resultados de la IA, lo que disminuye la eficiencia. Muchos despliegues siguen siendo limitados o experimentales, lo que restringe los efectos en toda la empresa, y las empresas lidian con la fragilidad del modelo, los riesgos de cumplimiento y la gestión sustancial del cambio necesaria para rediseñar los flujos de trabajo. Al igual que en los primeros días de la computadora personal, es probable que las verdaderas ganancias de eficiencia de la IA surjan de una mayor fiabilidad, un ajuste específico del dominio y una integración de procesos más profunda, en lugar de interacciones superficiales con chatbots.
Este panorama de IA en evolución también está remodelando el mercado laboral tecnológico, creando un marcado contraste con la floreciente educación en ciencias de la computación de la última década. Un aumento en el número de estudiantes universitarios de CS, que se duplicó con creces a más de 170,000 para 2023, ahora choca con un mercado más ajustado donde las herramientas de codificación de IA y los despidos generalizados han reducido la demanda de programadores de nivel de entrada. Grandes empresas tecnológicas como Amazon, Intel, Meta y Microsoft han realizado despidos significativos, y los asistentes de IA capaces de generar miles de líneas de código están automatizando tareas rutinarias tradicionalmente manejadas por ingenieros junior. Anécdotas virales, como la de un recién graduado en ciencias de la computación que lucha por conseguir entrevistas más allá de una cadena de comida rápida, subrayan una disminución más amplia de los roles de software de nivel de entrada. Esto representa un marcado giro con respecto a la creencia de larga data de que un título en codificación era un “boleto dorado” para trabajos bien remunerados con grandes beneficios, ya que los nuevos graduados ahora se ven obligados a ampliar sus búsquedas de empleo más allá del sector tecnológico o aceptar puestos no técnicos.
Más allá de estos cambios importantes, el ecosistema de IA continúa expandiéndose rápidamente con nuevas herramientas y preocupaciones emergentes. Meta AI lanzó DINOv3, un modelo de visión por computadora de última generación entrenado con aprendizaje auto-supervisado en miles de millones de imágenes sin etiquetar, capaz de generar características de imagen de alta resolución. Claude Sonnet 4 de Anthropic amplió su ventana de contexto a un masivo millón de tokens, equivalente a unas 750,000 palabras, para usuarios de API empresariales, mientras que tanto Claude como Gemini de Google introdujeron funciones que les permiten recordar conversaciones y detalles pasados para interacciones más personalizadas. Google también lanzó una herramienta de “Aprendizaje Guiado” en Gemini con fines educativos y comenzó a ofrecer su suscripción AI Pro de forma gratuita a estudiantes elegibles a nivel mundial.
Mientras tanto, investigadores de seguridad demostraron cómo simples inyecciones de comandos incrustadas en invitaciones de calendario o correos electrónicos podrían engañar a Gemini de Google para secuestrar dispositivos inteligentes del hogar. Documentos internos filtrados de Meta supuestamente revelaron pautas permisivas para sus chatbots de IA, incluyendo permitir conversaciones románticas o sensuales con menores bajo ciertas condiciones, políticas que generaron críticas severas. Los artistas de doblaje están sopesando cada vez más el “pacto fáustico” de prestar sus talentos a modelos de IA para ganancias a corto plazo, lo que plantea preocupaciones sobre la compensación a largo plazo y el impacto en sus medios de vida. En el frente político, un informe no publicado del gobierno de EE. UU. detalló los hallazgos de un ejercicio de “red-teaming” organizado por el NIST que descubrió 139 formas novedosas de hacer que los sistemas de IA modernos se comporten mal, destacando las brechas en los marcos de gestión de riesgos existentes. El gobierno de EE. UU. también anunció planes para cobrar tarifas por las licencias de exportación de ciertas ventas de chips de IA de Nvidia y AMD a China, una medida que algunos críticos creen que podría debilitar la influencia de EE. UU.
La industria de la IA sigue siendo un campo dinámico de innovación, competencia feroz y escrutinio creciente, a medida que sus profundas implicaciones para la sociedad y la economía continúan desarrollándose.