CISOs exigen regulación urgente de la IA ante amenazas cibernéticas de DeepSeek

Artificialintelligence

Una palpable inquietud se está extendiendo entre los Directores de Seguridad de la Información (CISOs) de los centros de operaciones de seguridad del Reino Unido, particularmente en lo que respecta al gigante chino de la IA, DeepSeek. Si bien la inteligencia artificial fue inicialmente anunciada como un nuevo amanecer para la eficiencia empresarial y la innovación, aquellos en la primera línea de la defensa corporativa ahora la perciben proyectando largas y oscuras sombras.

Un sorprendente 81 por ciento de los CISOs del Reino Unido cree que el chatbot chino de IA requiere una regulación gubernamental urgente. Temen que, sin una intervención gubernamental rápida, esta tecnología pueda precipitar una crisis cibernética nacional. Esto no es una ansiedad especulativa; es una respuesta directa a una tecnología cuyas prácticas de manejo de datos y su potencial inherente de uso indebido están haciendo sonar las alarmas en los niveles más altos de la seguridad empresarial.

Estos hallazgos, encargados por Absolute Security para su Informe del Índice de Riesgos de Resiliencia del Reino Unido, se basan en una encuesta a 250 CISOs dentro de las principales organizaciones del Reino Unido. Los datos sugieren que la amenaza abstracta de la IA se ha materializado directamente en la agenda del CISO, y sus reacciones han sido decisivas. En una medida que habría sido casi impensable hace solo un par de años, más de un tercio (34 por ciento) de estos líderes de seguridad ya han implementado prohibiciones absolutas sobre las herramientas de IA debido a preocupaciones de ciberseguridad. Una proporción similar, el 30 por ciento, ya ha detenido implementaciones específicas de IA dentro de sus organizaciones.

Este retroceso no nace de la aversión tecnológica, sino que representa una respuesta pragmática a un problema creciente. Las empresas ya están lidiando con amenazas complejas y sofisticadas, como lo demuestran incidentes de alto perfil como la reciente filtración de Harrods. Los CISOs luchan por mantenerse al día, y la integración de la IA avanzada en el conjunto de herramientas del atacante presenta un desafío para el cual muchos se sienten profundamente despreparados.

En el centro de las preocupaciones con respecto a plataformas como DeepSeek está su capacidad para exponer datos corporativos sensibles y ser utilizada como arma por los ciberdelincuentes. Tres de cada cinco (60 por ciento) CISOs predicen un aumento directo de los ciberataques como resultado de la proliferación de DeepSeek. Una proporción idéntica informa que la tecnología ya está complicando sus marcos de privacidad y gobernanza, haciendo que una tarea ya ardua sea casi insostenible. Esto ha provocado un cambio significativo de perspectiva. Una vez aclamada como una posible panacea para los problemas de ciberseguridad, la IA es ahora percibida por un significativo 42 por ciento de los CISOs como una mayor responsabilidad que un activo en sus estrategias defensivas.

Andy Ward, vicepresidente senior internacional de Absolute Security, enfatizó la gravedad de la situación: “Nuestra investigación destaca los riesgos significativos que plantean las herramientas de IA emergentes como DeepSeek, que están remodelando rápidamente el panorama de las amenazas cibernéticas. A medida que crecen las preocupaciones sobre su potencial para acelerar los ataques y comprometer datos sensibles, las organizaciones deben actuar ahora para fortalecer su resiliencia cibernética y adaptar los marcos de seguridad para seguir el ritmo de estas amenazas impulsadas por la IA. Por eso, cuatro de cada cinco CISOs del Reino Unido están pidiendo urgentemente una regulación gubernamental. Han sido testigos de la rapidez con la que esta tecnología avanza y de la facilidad con la que puede superar las defensas de ciberseguridad existentes.”

Quizás lo más preocupante es la admisión generalizada de la falta de preparación. Casi la mitad (46 por ciento) de los líderes de seguridad senior reconocen que sus equipos están mal preparados para gestionar las amenazas distintas que plantean los ataques impulsados por IA. Están presenciando cómo las herramientas de IA, como DeepSeek, superan sus capacidades defensivas en tiempo real, creando una peligrosa brecha de vulnerabilidad que muchos creen que solo una intervención gubernamental a nivel nacional puede cerrar. “Estos no son riesgos hipotéticos”, continuó Ward. “El hecho de que las organizaciones ya estén prohibiendo las herramientas de IA por completo y repensando sus estrategias de seguridad en respuesta a los riesgos planteados por los LLM como DeepSeek demuestra la urgencia de la situación. Sin un marco regulatorio nacional integral —uno que delimite directrices claras para el despliegue, la gobernanza y el monitoreo de estas herramientas— la economía del Reino Unido se enfrenta al riesgo de una interrupción generalizada en todos los sectores.”

A pesar de esta postura defensiva, las empresas no contemplan una retirada total de la IA. La respuesta es más una pausa estratégica que un cese permanente. Las empresas reconocen el inmenso potencial de la IA y están invirtiendo activamente en su adopción segura. De hecho, un sustancial 84 por ciento de las organizaciones están priorizando la contratación de especialistas en IA para 2025. Esta inversión se extiende hasta la cima de la jerarquía corporativa, con un 80 por ciento de las empresas comprometidas con la capacitación en IA a nivel ejecutivo. La estrategia parece ser un enfoque de doble vertiente: mejorar las habilidades de la fuerza laboral existente para comprender y gestionar la tecnología, mientras se recluta simultáneamente talento especializado para navegar por sus complejidades inherentes. La esperanza predominante es que cultivar una base interna sólida de experiencia en IA pueda servir como un contrapeso crucial a las crecientes amenazas externas.

El mensaje del liderazgo de seguridad del Reino Unido es claro: no buscan impedir la innovación en IA, sino más bien permitir su progreso seguro y responsable. Para lograr esto, requieren una asociación más sólida con el gobierno. El camino a seguir implica establecer reglas de compromiso claras, una supervisión gubernamental robusta, fomentar una reserva de profesionales de IA calificados y desarrollar una estrategia nacional coherente para gestionar los posibles riesgos de seguridad planteados por DeepSeek y la inevitable próxima generación de potentes herramientas de IA. “El tiempo para el debate prolongado ha pasado”, concluye Ward. “La acción inmediata, la política integral y la supervisión estricta son imperativas para garantizar que la IA siga siendo una fuerza para el progreso, no un catalizador de crisis.”