IA en Ciberseguridad: ¿Escudo Defensor o Lanza Atacante?

Theregister

En la reciente conferencia Black Hat, un evento fundamental del Campamento de Verano de Hackers anual, surgió un debate clave sobre el papel cambiante de la inteligencia artificial en la ciberseguridad: ¿favorece actualmente a los defensores o a los atacantes? Mikko Hyppönen, entonces director de investigación de la firma de seguridad finlandesa WithSecure, presentó una visión optimista, aunque temporal, sugiriendo que la IA actualmente otorga una ventaja a los defensores.

“Realmente creo que la IA es la clave [en seguridad] porque es uno de los pocos campos donde los defensores están por delante de los atacantes”, dijo Hyppönen a la audiencia. Destacó que, si bien las empresas de ciberseguridad están integrando extensamente la IA generativa en sus productos, los atacantes apenas están comenzando a aprovechar la tecnología, y los ataques actuales impulsados por IA siguen siendo relativamente simplistas. Para ilustrar, Hyppönen señaló que en 2024, no se conocía públicamente que ningún sistema de IA hubiera descubierto vulnerabilidades de día cero (fallas críticas de software desconocidas para los desarrolladores). Sin embargo, para mediados de 2025, los investigadores ya habían identificado aproximadamente dos docenas de tales vulnerabilidades utilizando el escaneo de modelos de lenguaje grandes (LLM), todas las cuales han sido parcheadas desde entonces. Advirtió que, a medida que los hackers empleen cada vez más la IA para la investigación, más descubrimientos serán inevitables.

Una perspectiva contrastante provino de Nicole Perlroth, ex corresponsal de seguridad del New York Times y ahora socia de Silver Buckshot Ventures. En una posterior conferencia magistral de Black Hat, predijo que para el próximo año, la ventaja probablemente se desplazaría hacia la IA ofensiva. Perlroth también señaló la importante brecha de talento en la industria de seguridad de EE. UU., citando 500.000 vacantes de empleo, una estadística que provocó una risa lamentable entre una audiencia muy consciente del desafiante mercado laboral.

A lo largo de la semana, expertos de la industria, incluidos proveedores, probadores de penetración y aquellos en la primera línea de la seguridad, expresaron una mezcla de optimismo y escepticismo con respecto a la contribución de la IA. Si bien muchos son positivos sobre su potencial, existe una preocupación generalizada de que la actual ventaja defensiva no durará indefinidamente. Críticamente, nadie encuestado anticipa que los sistemas de IA puedan atacar redes de forma autónoma durante al menos otra década.

Las presentaciones en la conferencia abordaron con frecuencia las herramientas de IA para el “red teaming”, es decir, la simulación de ataques para probar las defensas de la red. Sin embargo, el consenso fue que estas herramientas aún no son completamente fiables y son propensas a errores básicos si se usan indebidamente. Charles Henderson, vicepresidente ejecutivo de ciberseguridad en Coalfire, enfatizó que, si bien su empresa utiliza herramientas de IA, su eficacia es severamente limitada sin la supervisión humana. Afirmó que “dirigida correctamente, la IA hace aproximadamente el 60 por ciento del trabajo”, lo que la hace excelente para aligerar la carga de trabajo humana, pero inadecuada para asumir misiones completas. Henderson explicó que la IA sobresale en la detección de fallas, pero su implementación efectiva es primordial; simplemente desplegar herramientas de IA sin una guía humana estratégica no es útil, un punto a menudo pasado por alto por aquellos que sobrevenden sus capacidades. Chris Yule, director de investigación de amenazas en la Sophos Cyber Threat Unit, se hizo eco de este sentimiento, sugiriendo que la IA debería aumentar las habilidades humanas en lugar de reemplazarlas, y que los sistemas de aprendizaje automático necesitan objetivos claros y limitados y orientación humana para un uso óptimo. Este enfoque del red teaming también proporciona valiosas perspectivas sobre cómo los futuros delincuentes podrían aprovechar estos sistemas, permitiendo a la comunidad de seguridad modelar y anticipar posibles ataques.

En el frente defensivo, el gobierno de EE. UU., a través de la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA), está invirtiendo activamente en IA como herramienta de protección. DARPA otorgó recientemente 8,5 millones de dólares a tres equipos que compiten en su AI Cyber Challenge, un concurso de dos años destinado a crear sistemas de IA capaces de identificar y parchear vulnerabilidades sin causar inestabilidad en la red. La agotadora competencia redujo 42 equipos a siete, y el esfuerzo colaborativo ganador incluyó a los principales investigadores de Georgia Tech, Samsung Research, el Instituto Avanzado de Ciencia y Tecnología de Corea (KAIST) y la Universidad de Ciencia y Tecnología de Pohang (POSTECH). En el concurso, los sistemas de IA descubrieron con éxito 54 y parchearon 43 de las 70 vulnerabilidades introducidas deliberadamente. Más impresionantemente, identificaron de forma autónoma 18 vulnerabilidades adicionales —seis en C y doce en Java— y lograron parchear 11 de ellas. El código desarrollado a partir de este desafío es ahora de código abierto, y se planean más concursos para el futuro. Por otra parte, las fuentes señalaron la aptitud particular de la IA para detectar vulnerabilidades SQL, una falla común, probablemente debido a los extensos datos de entrenamiento.

Una preocupación significativa entre los asistentes fue el impacto potencial de la IA en el mercado laboral. Si bien algunas empresas han reducido el personal de seguridad, particularmente en roles de nivel de entrada, otras sostienen que la brecha de talento existente sigue sin abordarse. Chris Yule de Sophos argumentó que el impacto de la IA en los empleos de seguridad ha sido exagerado, sugiriendo que a veces se utiliza como pretexto de marketing para despidos. Afirmó que, si bien la IA tiene sus usos, reemplazar segmentos enteros de la fuerza laboral de seguridad no es factible actualmente, y quizás nunca lo sea. Un CISO anónimo estuvo de acuerdo, afirmando: “Nunca superarás el factor humano. [Los sistemas de IA] son buenos para procesar datos, pero el ingenio humano es difícil de vender en este momento, aunque eso puede cambiar. Pero confío más en mis programadores que en una IA”.

Por ahora, la IA sirve como una poderosa herramienta de aumento en la ciberseguridad. A medida que los modelos continúan mejorando, el panorama futuro sigue siendo altamente fluido, y los expertos dudan en hacer predicciones definitivas sobre su trayectoria final.