Gobernar la AGI: Fracasos regulatorios de EE. UU., guerras de chips y desafíos futuros
Históricamente, el gobierno de los Estados Unidos ha tenido dificultades para regular eficazmente las tecnologías en rápida evolución, un desafío compartido por la mayoría de las naciones. Esta dificultad a menudo se deriva del ritmo vertiginoso del cambio tecnológico y de una desconexión fundamental entre los legisladores y el intrincado funcionamiento de las innovaciones que buscan controlar. Un ejemplo claro es la década de 1990, cuando los legisladores estadounidenses, con el objetivo de restringir la criptografía fuerte de manos extranjeras, limitaron el software exportable a claves de cifrado de 40 bits. Sus regulaciones forzaron inadvertidamente a las empresas tecnológicas a adoptar este estándar más débil a nivel mundial, socavando la seguridad en todo el mundo, incluso dentro de los propios EE. UU.
Hoy en día, a medida que la inteligencia artificial avanza a un ritmo sin precedentes —con modelos de IA ahora capaces de completar tareas de varias horas, y la complejidad de estas tareas duplicándose cada siete meses—, la llegada de la Inteligencia Artificial General (AGI) se cierne sobre nosotros. Una vez más, el gobierno de EE. UU. intenta moldear el futuro de la tecnología mediante la regulación, pero sus esfuerzos iniciales han tenido un éxito limitado, lo que exige una reevaluación rápida.
Al inicio de la emergencia pública de la IA, particularmente tras el lanzamiento de ChatGPT, el gobierno de EE. UU. persiguió una política coordinada para frenar su desarrollo mediante la regulación de los propios modelos de IA. Este enfoque, impulsado por el miedo a lo desconocido, buscaba controlar a los inmensamente poderosos grupos que construyen estas tecnologías a través de umbrales burdos y requisitos administrativos onerosos. En 2022, la Oficina de Política Científica y Tecnológica (OSTP) de la Casa Blanca introdujo la Declaración de Derechos de la IA. A esto le siguió en 2023 la Orden Ejecutiva sobre Inteligencia Artificial del presidente Joe Biden, que priorizó la seguridad sobre el progreso, y la publicación del marco de gestión de riesgos de IA del Instituto Nacional de Estándares y Tecnología (NIST).
Sin embargo, muchas de estas iniciativas iniciales se desmoronaron rápidamente debido a un defecto fundamental: la incapacidad de medir y hacer cumplir el cumplimiento de manera efectiva. No existían umbrales técnicos universalmente acordados, ni comités de supervisión robustos para responsabilizar a los desarrolladores. Límites, como el umbral de 10^26 FLOPs para el tamaño del modelo, fueron rápidamente superados. Muchas políticas intentaron codificar siglos de precedentes legales y éticos en software, una tarea lenta y desordenada que finalmente no logró ganar terreno entre los posibles encargados de hacer cumplir la ley. Este enfoque de “seguridad primero” fue acelerado aún más hacia su desaparición en 2025, cuando la segunda administración Trump rescindió rápidamente las directivas de IA de la era Biden, emitiendo la Orden Ejecutiva 14179, que enfatizaba la innovación y la competitividad, eliminando efectivamente las salvaguardias anteriores.
Concomitantemente con el debate sobre la regulación de los modelos de IA, surgió una preocupación geopolítica significativa: el potencial de que modelos avanzados de IA cayeran en manos del principal rival geopolítico de Estados Unidos, China. Reconociendo que el desarrollo de modelos de IA de frontera requiere talento de ingeniería, energía y, crucialmente, chips semiconductores, EE. UU., desde 2018, ha tratado el control de chips de IA avanzados como un imperativo de seguridad nacional. A través de una serie de regulaciones y maniobras diplomáticas, Washington se ha esforzado por mantener estos chips fuera del alcance de China.
Esta estrategia comenzó en 2018 con la Ley de Reforma del Control de Exportaciones (ECRA), la primera autoridad estatutaria permanente de control de exportaciones desde la Guerra Fría. En octubre de 2022, la administración Biden prohibió las exportaciones de GPUs de alto rendimiento y ciertas herramientas de fabricación de chips a China. Para enero de 2023, Washington había convencido a los Países Bajos y Japón de detener la venta de equipos de fabricación de semiconductores a Beijing. Ajustando aún más las tuercas, la Oficina de Industria y Seguridad amplió los controles de exportación en diciembre de 2024 para incluir chips de memoria de alto ancho de banda y más equipos de fabricación, requiriendo que Samsung y Micron obtuvieran licencias para los envíos a China. Una iniciativa saliente de la administración Biden en enero de 2025, el Marco de Difusión de IA, habría requerido licencias para la exportación global de chips de gama alta e incluso de pesos de modelos, prohibiendo efectivamente los envíos a China, pero esta también fue rescindida por la administración Trump. El ex Asesor de Seguridad Nacional Jake Sullivan describió frecuentemente este enfoque como un “patio pequeño, valla alta”, con el objetivo de controlar estrictamente un pequeño número de componentes de hardware de alto valor.
Esta “guerra de chips” ha tenido un éxito parcial. Se informa que los chips de fabricación china, como el Ascend 910B/C de Huawei, están aproximadamente cuatro años por detrás de los diseños líderes de Nvidia. Sin embargo, esta brecha podría estar cerrándose rápidamente; Kai-Fu Lee, fundador de la empresa china de IA 01.AI, indicó en marzo de 2025 que los modelos de IA chinos estaban solo tres meses por detrás de sus homólogos estadounidenses. Más críticamente, China está desarrollando activamente soluciones alternativas, centrándose en mejorar las habilidades de su fuerza laboral, impulsar la fabricación nacional y, según se informa, participando en subterfugios, como sugieren los rumores durante la “saga DeepSeek” de chips Nvidia restringidos que llegaron a China a través de intermediarios. La naturaleza de la guerra de chips también cambiará a medida que crezca la adopción de la IA. El número de chips utilizados para la inferencia (ejecución de modelos) pronto superará a los utilizados para el entrenamiento. La inferencia a menudo depende de chips más antiguos o menos especializados, un mercado donde la producción nacional de China podría ofrecer ventajas significativas en costos y alcance, lo que podría cambiar el panorama competitivo.
Si bien EE. UU. ha mantenido una ventaja en la carrera hacia la AGI, China se está acercando. Excluyendo los modelos de OpenAI y Anthropic de muy alto nivel, los modelos chinos como Qwen, DeepSeek, Kimi y GLM son altamente comparables, con nuevas versiones de código abierto emergiendo casi a diario. A medida que la ventaja de Estados Unidos se reduce, lo que está en juego aumenta drásticamente. Lo que antes sonaba a hipérbole —la idea de que la IA reemplace empleos— está empezando a parecer plausible. Con la AGI acercándose, somos testigos de ingenieros que obtienen paquetes salariales de miles de millones de dólares, inversiones que alcanzan los 100 mil millones de dólares en gastos de capital, y empresas tecnológicas que logran valoraciones de billones de dólares. Estas cifras subrayan el impacto profundo e inevitable de la IA en la economía estadounidense y en la dinámica de poder global.
Las regulaciones de IA basadas en software, destinadas a controlar el ritmo de desarrollo, resultaron imposibles de aplicar, lo que llevó a la eliminación de las salvaguardias. Las regulaciones basadas en hardware, diseñadas para restringir el acceso a la IA a unos pocos, han tenido un éxito parcial pero ahora están viendo cómo su efectividad disminuye. Esto deja a EE. UU. enfrentando una realidad innegable: la tecnología más poderosa que el mundo haya visto —una que podría desplazar una porción significativa de los 100 billones de dólares gastados anualmente en mano de obra— pronto estará disponible tanto para EE. UU. como para otras naciones poderosas.
EE. UU. tiene un historial de tropiezos al regular tecnologías transformadoras, desde la encriptación hasta las redes sociales, pero la IA presenta un desafío sin precedentes, capaz de redefinir el trabajo, la riqueza y la influencia global. La cuestión central de la gobernanza de la IA gira en torno a cómo gestionar este nuevo poder, altamente concentrado. Como argumentó la historiadora y filósofa estadounidense Hannah Arendt, las nuevas tecnologías alteran fundamentalmente los asuntos humanos, y el papel del gobierno es preservar la pluralidad y restringir la dominación que estas permiten. Esta es una tarea inherentemente difícil. Las regulaciones de software simples han demostrado ser ineficaces. Las restricciones de hardware, aunque algo exitosas, requieren un nivel de control draconiano que puede ser indeseable y solo sirve a la dominación geopolítica. Además, optar por no desarrollar IA por completo no es una opción viable para mantener la competitividad global.
La complejidad exige respuestas a preguntas críticas: ¿Cuál es la analogía apropiada para la IA soberana —es como la infraestructura en la nube, el almacenamiento de datos, el equipo de red o las centrales eléctricas? ¿Hasta qué punto debe ser indemnizado el creador de un modelo por sus acciones, especialmente en el caso de los modelos de código abierto? ¿Debería EE. UU. promulgar leyes federales de IA, y si es así, qué deberían implicar y cómo se harían cumplir? ¿Cuáles son los beneficios de permitir que el libre mercado dicte el desarrollo, y cuándo es el momento adecuado para la intervención? El desafío final para EE. UU. es gobernar este poder de manera apropiada, protegiendo a la sociedad, preservando su ventaja competitiva y fomentando la innovación simultáneamente.