Ley de IA de la UE: Modelando la Innovación y Confianza Global en IA

Techcrunch

La Ley de Inteligencia Artificial de la Unión Europea, a menudo denominada Ley de IA de la UE, es descrita por la Comisión Europea como el primer marco legal integral del mundo para la inteligencia artificial. Tras años de desarrollo, esta legislación histórica está entrando progresivamente en vigor en los 27 Estados miembros de la UE, afectando a 450 millones de ciudadanos. Su alcance se extiende más allá de las fronteras de la UE, aplicándose tanto a empresas locales como extranjeras, abarcando tanto a los proveedores como a los implementadores de sistemas de IA. Por ejemplo, la Ley se aplicaría a un desarrollador que crea una herramienta de selección de currículos, así como a un banco que la utiliza, estableciendo un marco legal unificado para sus operaciones de IA.

La principal motivación detrás de la Ley de IA de la UE es establecer un entorno regulatorio consistente para la IA en todos los países de la UE, evitando reglas nacionales fragmentadas. Esta uniformidad tiene como objetivo facilitar la libre circulación de bienes y servicios basados en IA a través de las fronteras. Al implementar una regulación oportuna, la UE busca crear un campo de juego equitativo para la innovación, fomentar la confianza pública en las tecnologías de IA y, potencialmente, abrir nuevas oportunidades para las empresas emergentes. A pesar de la etapa relativamente temprana de la adopción generalizada de la IA, la Ley establece estándares estrictos para las implicaciones éticas y sociales de la IA.

Los legisladores europeos han articulado los principales objetivos del marco como la promoción de una “IA centrada en el ser humano y confiable”, al tiempo que garantizan un alto nivel de protección para la salud, la seguridad y los derechos fundamentales. Estos derechos, consagrados en la Carta de los Derechos Fundamentales de la Unión Europea, incluyen la democracia, el estado de derecho y la protección del medio ambiente. La Ley también tiene como objetivo mitigar los efectos perjudiciales de los sistemas de IA dentro de la Unión y apoyar la innovación. Este ambicioso mandato refleja un delicado equilibrio entre fomentar la adopción y el desarrollo de la IA, prevenir daños y mantener los estándares ambientales.

Para conciliar estos diversos objetivos, la Ley de IA de la UE adopta un enfoque basado en el riesgo. Categoriza las aplicaciones de IA en diferentes niveles de riesgo, imponiendo obligaciones correspondientes:

  • Riesgo Inaceptable: Un pequeño número de casos de uso de IA están directamente prohibidos debido a su potencial de daño severo.

  • Alto Riesgo: Ciertas aplicaciones se identifican como de “alto riesgo” y están sujetas a una regulación y supervisión estrictas.

  • Riesgo Limitado: Los escenarios considerados de “riesgo limitado” enfrentan obligaciones más ligeras, asegurando la proporcionalidad.

La implementación de la Ley de IA de la UE comenzó el 1 de agosto de 2024, con plazos de cumplimiento escalonados. Generalmente, los nuevos participantes en el mercado enfrentan requisitos de cumplimiento más tempranos que las empresas que ya ofrecen productos y servicios de IA dentro de la UE. El primer plazo significativo ocurrió el 2 de febrero de 2025, centrándose en la aplicación de prohibiciones para un número limitado de usos de IA prohibidos, como el raspado no dirigido de imágenes faciales de internet o CCTV para la creación de bases de datos. Si bien muchas otras disposiciones seguirán, la mayoría se espera que se apliquen a mediados de 2026.

Un desarrollo clave ocurrió el 2 de agosto de 2025, cuando la Ley comenzó a aplicarse a los “modelos de IA de propósito general (GPAI) con riesgo sistémico”. Los modelos GPAI se definen como modelos de IA entrenados en conjuntos de datos extensos, capaces de realizar una amplia gama de tareas. El elemento de “riesgo sistémico” se refiere a posibles peligros sociales amplios, como facilitar el desarrollo de armas químicas o biológicas, o problemas no intencionados de control sobre modelos GPAI autónomos. Antes de esta fecha límite, la UE emitió directrices para los proveedores de modelos GPAI, incluidos los principales actores globales como Anthropic, Google, Meta y OpenAI. Sin embargo, las empresas con modelos existentes en el mercado tienen hasta el 2 de agosto de 2027 para lograr el cumplimiento total, a diferencia de los nuevos participantes en el mercado.

La Ley de IA de la UE incluye un régimen de sanciones robusto diseñado para ser “eficaz, proporcionado y disuasorio”, incluso para grandes corporaciones internacionales. Si bien los detalles específicos serán determinados por cada país de la UE, el reglamento describe los principios generales y los umbrales para las multas, que varían según el nivel de riesgo considerado de la infracción. Las sanciones más altas se reservan para las violaciones de las aplicaciones de IA prohibidas, pudiendo alcanzar hasta 35 millones de euros o el 7% de la facturación anual mundial total del ejercicio financiero anterior, lo que sea mayor. Los proveedores de modelos GPAI pueden enfrentar multas de hasta 15 millones de euros o el 3% de su facturación anual.

La voluntad de la industria de cumplir, incluso voluntariamente, se indica en parte por el compromiso con el Código de Conducta voluntario para GPAI, que incluye compromisos como no entrenar modelos con contenido pirata. En julio de 2025, Meta anunció notablemente su decisión de no firmar este código voluntario. Por el contrario, Google confirmó su intención de firmarlo poco después, a pesar de expresar reservas. Otros signatarios hasta la fecha incluyen a Aleph Alpha, Amazon, Anthropic, Cohere, IBM, Microsoft, Mistral AI y OpenAI. Sin embargo, firmar el código no equivale necesariamente a un respaldo total de todas sus implicaciones.

Algunas empresas tecnológicas han expresado una fuerte oposición a ciertos aspectos de la regulación. Kent Walker, presidente de Asuntos Globales de Google, expresó su preocupación en una publicación de blog de que la Ley de IA y su Código de Conducta corren el riesgo de “ralentizar el desarrollo y la implementación de la IA en Europa”. Joel Kaplan, director de Asuntos Globales de Meta, fue más allá, afirmando en LinkedIn que “Europa está yendo por el camino equivocado en IA” y criticando la implementación de la Ley como “exceso”. Argumentó que el código de conducta introduce incertidumbres legales para los desarrolladores de modelos e incluye medidas que exceden el alcance original de la Ley. Las empresas europeas también han compartido preocupaciones; Arthur Mensch, CEO de la firma francesa de IA Mistral AI, estuvo entre un grupo de CEOs europeos que firmaron una carta abierta en julio de 2025, instando a Bruselas a “detener el reloj” por dos años antes de que las obligaciones clave de la Ley de IA de la UE entraran en vigor.

A pesar de estos esfuerzos de cabildeo, la Unión Europea reafirmó su compromiso con el calendario establecido a principios de julio de 2025, procediendo con la fecha límite del 2 de agosto de 2025 según lo planeado.