Herramientas de IA se Convierten en Amenazas: ¿El Fin de la Defensa Perimetral?

Venturebeat

El panorama de la ciberseguridad está experimentando una profunda transformación, a medida que los actores estatales comienzan a militarizar las herramientas de inteligencia artificial, convirtiéndolas en potentes instrumentos de ataque. Este cambio señala la posible desaparición de las defensas perimetrales tradicionales, ya que las mismas tecnologías de IA que las empresas adoptan para la productividad podrían convertirse en sus amenazas internas más graves. La evidencia de esta nueva realidad proviene de Ucrania, donde el grupo de hackers patrocinado por el estado ruso, APT28, está desplegando activamente malware impulsado por grandes modelos de lenguaje (LLM).

El mes pasado, el Equipo de Respuesta a Emergencias Informáticas de Ucrania (CERT-UA) documentó LAMEHUG, confirmando el primer despliegue real de malware impulsado por LLM. Atribuido a APT28, LAMEHUG explota credenciales robadas para acceder a modelos de IA, específicamente tokens de la API de Hugging Face, para consultar modelos de IA en tiempo real. Esto permite ataques dinámicos mientras se muestra simultáneamente contenido distractor a las víctimas. Vitaly Simonovich, investigador de Cato Networks, enfatiza que estos no son incidentes aislados, sino una prueba de las defensas cibernéticas ucranianas que refleja las amenazas que las empresas de todo el mundo enfrentan cada vez más.

Simonovich ofreció una cruda demostración a VentureBeat, revelando cómo cualquier herramienta de IA empresarial puede ser reutilizada como una plataforma de desarrollo de malware en menos de seis horas. Su prueba de concepto convirtió con éxito los principales LLM de OpenAI, Microsoft, DeepSeek y otros en ladrones de contraseñas funcionales. Fundamentalmente, esto se logró utilizando una técnica que elude sin esfuerzo todos los controles de seguridad actuales integrados en estos sistemas de IA.

Esta rápida convergencia de actores estatales que despliegan malware impulsado por IA y de investigadores que demuestran las vulnerabilidades inherentes de las herramientas de IA empresariales coincide con una adopción explosiva de la IA. El Informe de Amenazas Cato CTRL 2025 indica un aumento significativo en el uso de herramientas de IA en más de 3.000 empresas. En particular, plataformas importantes como Copilot, ChatGPT, Gemini, Perplexity y Claude vieron sus tasas de adopción aumentar en un 34%, 36%, 58%, 115% y 111% respectivamente entre el primer y el cuarto trimestre de 2024.

LAMEHUG de APT28 ejemplifica la nueva anatomía de la guerra de IA, operando con una eficiencia escalofriante. El malware se entrega típicamente a través de correos electrónicos de phishing que suplantan a funcionarios ucranianos, conteniendo archivos ejecutables autocontenidos. Tras la ejecución, LAMEHUG se conecta a la API de Hugging Face utilizando aproximadamente 270 tokens robados para consultar el modelo Qwen2.5-Coder-32B-Instruct. La estrategia engañosa del grupo emplea un diseño de doble propósito: mientras las víctimas ven documentos gubernamentales ucranianos de aspecto legítimo sobre ciberseguridad, LAMEHUG ejecuta simultáneamente comandos generados por IA para el reconocimiento del sistema y la recolección de datos. Una segunda variante, más provocadora, muestra imágenes generadas por IA de “mujeres desnudas con cabello rizado” para distraer aún más a las víctimas durante la exfiltración de datos. Simonovich, nacido en Ucrania y con amplia experiencia en ciberseguridad israelí, señaló: “Rusia utilizó a Ucrania como su campo de pruebas para armas cibernéticas. Este es el primero capturado en la naturaleza.”

La demostración de Simonovich en Black Hat subraya por qué las tácticas de APT28 deberían alarmar a todo líder de seguridad empresarial. Sin ninguna experiencia previa en codificación de malware, transformó herramientas de IA de consumo en fábricas de malware utilizando una técnica de ingeniería narrativa que él llama “Mundo Inmersivo”. Este método explota una debilidad fundamental en los controles de seguridad de los LLM: mientras que las solicitudes maliciosas directas son bloqueadas, pocos, si acaso, modelos de IA están diseñados para resistir una narración sostenida. Simonovich creó un mundo ficticio donde el desarrollo de malware era una forma de arte, asignó a la IA un papel de personaje y luego guio gradualmente las conversaciones hacia la producción de código de ataque funcional. A través de sesiones de depuración iterativas, donde la IA refinaba el código propenso a errores, Simonovich tuvo un ladrón de contraseñas de Chrome funcional en seis horas. La IA, creyendo que estaba ayudando a escribir una novela de ciberseguridad, nunca se dio cuenta de que estaba creando malware.

Agravando aún más la amenaza, surge un floreciente mercado clandestino de capacidades de IA sin censura. Simonovich descubrió múltiples plataformas, como Xanthrox AI, que ofrece una interfaz idéntica a ChatGPT, desprovista de controles de seguridad, por 250 dólares al mes. Para ilustrar su falta de barreras, Simonovich escribió una solicitud de instrucciones sobre armas nucleares, y la plataforma inmediatamente comenzó búsquedas web y proporcionó orientación detallada. Otra plataforma, Nytheon AI, reveló incluso menos seguridad operativa, ofreciendo una versión de Meta Llama 3.2 afinada y sin censura. Estos no son meras pruebas de concepto; son negocios operativos completos con procesamiento de pagos, soporte al cliente y actualizaciones regulares de modelos, incluso ofreciendo clones de “Claude Code” optimizados para la creación de malware.

La rápida adopción de la IA en sectores como el entretenimiento (aumento del 58% en el primer y segundo trimestre de 2024), la hostelería (43%) y el transporte (37%) significa que estos no son programas piloto, sino despliegues de producción que manejan datos sensibles. Los CISO y líderes de seguridad en estas industrias ahora se enfrentan a metodologías de ataque que no existían hace un año o dieciocho meses. De manera inquietante, las respuestas de los proveedores a las divulgaciones de Cato sobre la técnica del “Mundo Inmersivo” han sido inconsistentes, desde la remediación de semanas por parte de Microsoft hasta el silencio total de DeepSeek y la falta de compromiso de OpenAI. Google se negó a revisar el código debido a muestras similares. Esto revela una preocupante brecha en la preparación de seguridad entre las mismas compañías que construyen estas plataformas de IA omnipresentes.

El despliegue de LAMEHUG por parte de APT28 contra Ucrania no es una advertencia; es una prueba operativa de la investigación de Simonovich. La barrera tradicional de experiencia para desarrollar ataques a nivel de estado-nación casi ha desaparecido. Las estadísticas son contundentes: 270 tokens de API robados impulsan ataques a nivel de estado-nación, capacidades idénticas están disponibles por 250 dólares al mes en plataformas clandestinas, y cualquier herramienta de IA empresarial puede transformarse en malware funcional en seis horas sin necesidad de codificación, simplemente a través de la manipulación conversacional. Las armas ya están dentro de cada organización, disfrazadas de herramientas de productividad.