Expertos: IA y Armas Nucleares, Fusión Inevitable con Impacto Incierto

Wired

Los expertos nucleares están cada vez más seguros de que la inteligencia artificial (IA) pronto se integrará en los sistemas de armas nucleares, aunque las implicaciones precisas de este desarrollo siguen siendo en gran medida indefinidas. Este consenso surgió de una reunión a mediados de julio en la Universidad de Chicago, donde laureados con el Premio Nobel se reunieron con científicos líderes, exfuncionarios gubernamentales y personal militar retirado especializado en guerra nuclear. El objetivo de las sesiones cerradas de dos días fue informar a estas figuras influyentes sobre las armas más devastadoras del mundo, guiándolas en última instancia para formular recomendaciones políticas para los líderes globales sobre cómo evitar conflictos nucleares.

La IA fue un tema central de discusión. Scott Sagan, profesor de Stanford reconocido por su investigación en desarme nuclear, señaló durante una conferencia de prensa que “Estamos entrando en un nuevo mundo donde la inteligencia artificial y las tecnologías emergentes influyen en nuestra vida diaria, pero también influyen en el mundo nuclear en el que vivimos”. Esta declaración refleja una creencia generalizada entre los expertos de que la convergencia de la IA y las armas nucleares es inevitable. Bob Latiff, general de división retirado de la Fuerza Aérea de EE. UU. y miembro de la Junta de Ciencia y Seguridad del Bulletin of the Atomic Scientists, comparó la IA con la electricidad, afirmando: “Va a encontrar su camino en todo”. Latiff también participa en la configuración anual del Reloj del Apocalipsis.

Sin embargo, las discusiones sobre la IA y las armas nucleares se complican por ambigüedades fundamentales. Jon Wolfsthal, experto en no proliferación y director de riesgo global en la Federación de Científicos Americanos, señala que “nadie sabe realmente qué es la IA”. Herb Lin, profesor de Stanford y exmiembro del Reloj del Apocalipsis, se hizo eco de este sentimiento, cuestionando: “¿Qué significa darle a la IA el control de un arma nuclear? ¿Qué significa darle a un [chip de computadora] el control de un arma nuclear?” Añadió que el debate se ha visto en gran medida moldeado por la prominencia de los grandes modelos de lenguaje (LLM).

A pesar de estas incertidumbres, existe un consenso entre los expertos nucleares en un punto crucial: nadie cree que los LLM orientados al consumidor como ChatGPT o Grok obtendrán acceso a los códigos de lanzamiento nuclear en un futuro cercano. Wolfsthal señaló que, si bien los expertos tienen diversas visiones “teológicas” sobre asuntos nucleares, están unidos en su demanda de “control humano efectivo sobre la toma de decisiones de armas nucleares”.

No obstante, persisten las preocupaciones con respecto a otras aplicaciones potenciales de los LLM dentro de las más altas esferas del poder. Wolfsthal relató haber escuchado propuestas de sistemas informáticos interactivos que podrían ayudar a un presidente a predecir las acciones de adversarios como Putin o Xi analizando sus declaraciones y escritos pasados. Cuestionó la fiabilidad de dichos sistemas, señalando: “¿Cómo sabes que Putin cree lo que ha dicho o escrito?.. se basa simplemente en una suposición que no se puede probar”. También expresó escepticismo de que quienes desarrollan tales herramientas comprendan plenamente el entorno de toma de decisiones de un presidente.

El ejército de EE. UU. ya está explorando el papel de la IA en las operaciones nucleares. El año pasado, el general de la Fuerza Aérea Anthony J. Cotton, quien supervisa las fuerzas nucleares de Estados Unidos, habló sobre la importancia de la adopción de la IA, afirmando que las fuerzas nucleares están “desarrollando inteligencia artificial o herramientas de apoyo a la decisión habilitadas por IA y lideradas por humanos para asegurar que nuestros líderes puedan responder a escenarios complejos y urgentes”.

La principal preocupación de Wolfsthal no es una IA deshonesta que inicie una guerra nuclear, sino las vulnerabilidades creadas al automatizar partes del sistema de mando y control nuclear. Teme que dicha automatización pueda ser explotada por adversarios o producir datos y recomendaciones que los humanos no estén equipados para comprender, lo que llevaría a decisiones desastrosas.

El lanzamiento de un arma nuclear es un proceso altamente complejo que involucra intrincadas redes de radar de alerta temprana, satélites y otros sistemas informáticos, todos monitoreados por humanos. Por ejemplo, un lanzamiento nuclear estadounidense requiere múltiples acciones humanas, incluyendo que dos individuos giren llaves simultáneamente en un silo. Todo el proceso es la culminación de numerosas decisiones humanas.

La perspectiva de que la IA asuma partes de este proceso plantea preguntas críticas. ¿Qué sucede cuando una IA, no un humano, monitorea el radar de alerta temprana? La política nuclear de EE. UU. requiere una “fenomenología dual” para confirmar un ataque nuclear, lo que significa que un ataque debe ser verificado tanto por sistemas satelitales como por radar. Wolfsthal argumenta que, en esta etapa, la IA no puede servir como uno de estos fenómenos confirmatorios. Esto se debe en parte a la naturaleza de “caja negra” de muchos sistemas de IA, cuyo funcionamiento interno no se comprende completamente. Los expertos generalmente están de acuerdo en que integrar tales sistemas en la toma de decisiones nucleares sería desaconsejable.

Latiff también expresó preocupaciones sobre los sistemas de IA que refuerzan el sesgo de confirmación. Le preocupa el verdadero significado de “control humano” si la IA influye en gran medida en las decisiones. “He sido comandante”, afirmó. “Sé lo que significa ser responsable de mis decisiones. Y eso es necesario… Si Johnny muere, ¿a quién culpo?” Los sistemas de IA, al estar sujetos a su programación y datos de entrenamiento, no pueden ser responsabilizados por fallas y están inherentemente limitados en su capacidad de “ver más allá de sí mismos”.

Herb Lin mencionó el ejemplo crítico de Stanislav Petrov, un teniente coronel de las Fuerzas de Defensa Aérea soviéticas que, en 1983, ignoró una alerta de máquina que indicaba un lanzamiento de misiles de EE. UU., evitando así una posible guerra nuclear. El juicio de Petrov, basado en su experiencia e intuición (por ejemplo, el pequeño número de misiles indicados, la novedad del sistema informático), anuló el aparente error de la máquina. Lin cuestiona si se puede esperar que los humanos realicen rutinariamente tales juicios críticos que van “más allá de sus datos de entrenamiento”, una habilidad que la IA, por definición, carece.

Mientras tanto, el gobierno de EE. UU. ha priorizado el desarrollo de la IA, a menudo enmarcándolo en términos de una nueva carrera armamentista. En mayo, el Departamento de Energía proclamó en X que “la IA es el próximo Proyecto Manhattan, y ESTADOS UNIDOS GANARÁ”, comparando explícitamente la búsqueda de la IA con una competencia con China. Lin encontró tales metáforas “horribles”, señalando que el Proyecto Manhattan tenía una métrica de éxito clara y tangible (la explosión de un arma nuclear), mientras que el éxito de un “Proyecto Manhattan de IA” sigue sin definirse.

Expertos: IA y Armas Nucleares, Fusión Inevitable con Impacto Incierto - OmegaNext Noticias IA