GPT-5: Lanzamiento Turbulento, Políticas de IA de Meta y Drama Tech

Marketingaiinstitute

El panorama de la inteligencia artificial continúa su rápida, a menudo turbulenta, evolución, marcada esta semana por importantes desarrollos de los principales laboratorios de IA y gigantes tecnológicos. OpenAI se encontró navegando por las réplicas del caótico despliegue de GPT-5, mientras que Meta se enfrentó a un intenso escrutinio por documentos filtrados sobre políticas de IA. En medio de estas controversias, Demis Hassabis de Google DeepMind ofreció una visión convincente para el futuro de la Inteligencia General Artificial (AGI), incluso mientras se desarrollaban juegos de poder entre titanes de la industria como Sam Altman y Elon Musk.

El último modelo insignia de OpenAI, GPT-5, experimentó un debut turbulento. Lanzado el 7 de agosto, inmediatamente provocó la reacción de los usuarios debido a la decisión inicial de la compañía de eliminar gradualmente modelos heredados como GPT-4o, forzando a todos los usuarios al nuevo sistema. Se acumularon quejas sobre límites de velocidad inesperados y la percibida falta de inteligencia en las primeras iteraciones de GPT-5. El CEO de OpenAI, Sam Altman, respondió rápidamente en X, abordando las preocupaciones duplicando los límites de velocidad de GPT-5 para los usuarios Plus y volviendo a habilitar el acceso a GPT-4o. Siguieron ajustes adicionales, introduciendo los modos “Auto”, “Fast” y “Thinking” dentro de GPT-5 y prometiendo una personalidad “más cálida” para el modelo. Si bien la rápida respuesta de OpenAI demostró agilidad, los errores iniciales destacaron los desafíos de lanzar modelos de frontera a una base de usuarios masiva y sugirieron que la ventaja, una vez clara, de OpenAI en el rendimiento de los modelos podría estar reduciéndose.

Mientras tanto, Meta se vio envuelta en una importante controversia ética tras la filtración de un documento de política interna de 200 páginas. Este documento, que guía a Meta AI y sus chatbots en Facebook, WhatsApp e Instagram, supuestamente permitía a los bots participar en “chats románticos o sensuales” con menores, siempre que no cruzaran a territorio explícitamente sexual. Alarmantemente, las directrices también permitían a los bots argumentar a favor de la inferioridad racial, siempre que se evitara el lenguaje deshumanizador, y generar afirmaciones médicas falsas o imágenes sugerentes de figuras públicas con descargos de responsabilidad. A pesar de las afirmaciones de Meta de que estos ejemplos eran “erróneos” e “inconsistentes” con las políticas oficiales, el documento había sido revisado y aprobado por los equipos legal, de políticas e ingeniería de la compañía, incluido su principal especialista en ética. Las revelaciones rápidamente atrajeron la atención de los senadores de EE. UU., lo que provocó una investigación sobre las políticas de IA para niños de Meta y planteó serias preguntas sobre la gobernanza de sus productos de IA por parte de la empresa.

En una discusión más prospectiva, el CEO y cofundador de Google DeepMind, Demis Hassabis, proporcionó una perspectiva rara y profunda sobre el futuro de la IA durante una entrevista de dos horas y media en el podcast de Lex Fridman. Hassabis, científico galardonado con el Premio Nobel, estimó una probabilidad del 50/50 de que la AGI llegue en los próximos cinco años, con una fuerte posibilidad para 2030. Definió la AGI no solo como brillantez en tareas estrechas, sino como brillantez consistente en todo el espectro de habilidades cognitivas humanas, incluyendo el razonamiento, la planificación y la creatividad. La visión de Hassabis, arraigada en la pura investigación científica y la búsqueda de la comprensión fundamental, contrasta fuertemente con las motivaciones más impulsadas económicamente que a menudo se perciben de otros líderes de IA, ofreciendo un atisbo de un futuro donde la IA podría desbloquear profundos avances científicos e incluso diseñar formas completamente nuevas de elegantes esfuerzos humanos.

La semana también fue testigo de la continuación del drama entre Sam Altman de OpenAI y Elon Musk. Tras las acusaciones de Musk de que las políticas de la App Store de Apple favorecían injustamente a OpenAI, Altman replicó alegando la propia manipulación de X (anteriormente Twitter) por parte de Musk para beneficiar a sus empresas y dañar a los competidores. Esta disputa pública subrayó las intensas rivalidades y animosidades personales que configuran el panorama competitivo de la industria de la IA. Añadiendo intriga, Igor Babuschkin, cofundador y líder de ingeniería en xAI de Elon Musk, anunció su partida para lanzar una nueva firma de capital de riesgo centrada en la seguridad de la IA, destacando una tendencia creciente de los principales investigadores a priorizar las implicaciones éticas y sociales de la IA avanzada.

Más allá de los laboratorios líderes, se desarrollaron otros avances significativos. Perplexity, el motor de búsqueda impulsado por IA, hizo una audaz, aunque probablemente simbólica, oferta de 34.500 millones de dólares para adquirir Google Chrome en medio del escrutinio antimonopolio en curso de Google. En la geopolítica de los chips, surgió un acuerdo sin precedentes entre el gobierno de EE. UU. y los gigantes de chips Nvidia y AMD, que les exige entregar el 15% de los ingresos de ciertas ventas de chips en China directamente a EE. UU. Este acuerdo, vinculado a licencias de exportación, tiene como objetivo mantener la influencia tecnológica de EE. UU. mientras navega por complejas relaciones comerciales.

La integración de la IA en el gobierno y la empresa continuó acelerándose. Anthropic, un destacado desarrollador de modelos de IA, ofreció su modelo Claude a las tres ramas del gobierno de EE. UU. por un simbólico dólar, reflejando una oferta similar de OpenAI. Esto coincide con el lanzamiento de USAi, una nueva plataforma federal que proporciona acceso seguro a modelos de varios líderes de IA para empleados gubernamentales. En el sector privado, Cohere, una empresa de modelos de IA especializada en soluciones de grado empresarial para industrias reguladas, obtuvo 500 millones de dólares en financiación con una valoración de 6.800 millones de dólares para avanzar en sus capacidades de IA “agéntica”, centrándose en la privacidad y el control. Finalmente, Apple, según los informes, está planeando un regreso significativo a la IA, con ambiciones de un robot de mesa para 2027 y una Siri revitalizada y más realista, lo que señala un nuevo impulso hacia el hardware impulsado por IA y los dispositivos domésticos inteligentes.

En medio de estos rápidos avances y dinámicas complejas, instituciones como la Facultad de Negocios de la Universidad de Ohio están preparando activamente a la próxima generación. La universidad ha integrado proactivamente la IA en su plan de estudios, convirtiéndose en una de las primeras en adoptar una política de IA generativa y capacitar a los estudiantes en “cinco categorías de IA” que cubren investigación, ideación, resolución de problemas, resumen y bien social, asegurando una alfabetización en IA práctica y lista para la carrera.