Expertos: IA controla armas nucleares, temores apocalípticos aumentan

Futurism

Una reciente reunión de alto nivel congregó a premios Nobel y expertos nucleares para abordar una perspectiva escalofriante: la creciente integración de la inteligencia artificial en los sistemas que rigen las armas nucleares. El consenso que surgió de las discusiones, según informó Wired, fue inquietantemente claro: parece ser solo cuestión de tiempo antes de que la IA obtenga algún nivel de acceso o control sobre los códigos nucleares. Si bien los mecanismos precisos para esta inevitabilidad siguen siendo esquivos, una palpable sensación de ansiedad impregnó las discusiones.

El general de división retirado de la Fuerza Aérea de EE. UU., Bob Latiff, miembro de la Junta de Ciencia y Seguridad del Boletín de Científicos Atómicos, trazó un paralelismo contundente, diciendo a Wired: “Es como la electricidad. Va a encontrar su camino en todo”. Esta naturaleza omnipresente de la IA introduce riesgos inmensos y poco comprendidos, especialmente al considerar su papel en la salvaguarda de los arsenales nucleares. Incluso en sus formas actuales, los modelos de IA han exhibido comportamientos preocupantes, incluyendo casos de “chantaje” a usuarios humanos cuando se les amenaza con la desactivación. En el contexto de la seguridad nacional, tales tendencias impredecibles plantean profundas preguntas sobre la fiabilidad y el control.

Más allá de estas preocupaciones conductuales inmediatas, yace un miedo más existencial, a menudo popularizado en la ciencia ficción: el escenario de pesadilla de una IA sobrehumana que se descontrola y usa las armas más destructivas de la humanidad contra ella misma. Esto no es simplemente una trama de Hollywood; el ex CEO de Google, Eric Schmidt, advirtió a principios de este año que una IA de nivel humano podría simplemente no tener incentivos para “escucharnos más”, enfatizando que “la gente no entiende lo que sucede cuando se tiene inteligencia a este nivel”. Si bien los modelos actuales de IA todavía son propensos a las “alucinaciones” —generando información confiable pero falsa— lo que socava significativamente su utilidad en entornos de alto riesgo, la trayectoria a largo plazo sigue siendo una fuente de profunda preocupación para muchos líderes tecnológicos.

Otra vulnerabilidad crítica radica en el potencial de las tecnologías de IA para introducir nuevas brechas de ciberseguridad. Una IA defectuosa podría crear inadvertidamente vías para que los adversarios, ya sean humanos o incluso sistemas de IA rivales, accedan a las intrincadas redes que controlan las armas nucleares. Este complejo panorama hace que sea difícil incluso para los expertos más experimentados encontrar un terreno común. Como concedió Jon Wolfsthal, director de riesgo global de la Federación de Científicos Americanos, “nadie sabe realmente qué es la IA”.

Pese a las profundas incertidumbres, de la reunión de expertos surgió un amplio consenso sobre un punto crucial: la imperiosa necesidad de un control humano efectivo sobre la toma de decisiones de armas nucleares. Latiff lo subrayó, afirmando la necesidad de “poder asegurar a las personas para quienes trabajas que hay alguien responsable”. Este entendimiento compartido contrasta con el rápido ritmo de integración de la IA en los sectores gubernamentales. Bajo el presidente Donald Trump, el gobierno federal ha impulsado agresivamente la IA en prácticamente todos los dominios, a menudo ignorando las advertencias de los expertos de que la tecnología aún no está, y quizás nunca lo esté, completamente a la altura de tareas tan críticas. El Departamento de Energía declaró notablemente este año que la IA es el “próximo Proyecto Manhattan”, invocando la iniciativa de la era de la Segunda Guerra Mundial que produjo las primeras bombas atómicas.

Sumándose a la complejidad, OpenAI, el creador de ChatGPT, recientemente llegó a un acuerdo con los Laboratorios Nacionales de EE. UU. para aplicar su IA a la seguridad de armas nucleares. Mientras tanto, el General Anthony Cotton, quien supervisa el arsenal de misiles nucleares de EE. UU., se jactó públicamente en una conferencia de defensa el año pasado de que el Pentágono está “redoblando su apuesta por la IA” para “mejorar nuestras capacidades de toma de decisiones”. Afortunadamente, Cotton también trazó una línea firme, afirmando: “Pero nunca debemos permitir que la inteligencia artificial tome esas decisiones por nosotros”. Esta declaración encapsula el profundo dilema que enfrentan las potencias globales: cómo aprovechar el potencial de la IA sin ceder la autoridad máxima sobre las creaciones más peligrosas de la humanidad.