Estados de EE. UU. lideran regulación de IA ante inacción federal
Ante la ausencia de una legislación federal integral, las legislaturas estatales de EE. UU. se han convertido en el principal escenario para establecer regulaciones en torno a las tecnologías de inteligencia artificial. Este enfoque descentralizado ganó aún más impulso tras el significativo revés en el Congreso de una propuesta de moratoria sobre la regulación de IA a nivel estatal, despejando efectivamente el camino para que los estados continúen desarrollando sus propios marcos. De hecho, los 50 estados introdujeron varios proyectos de ley relacionados con la IA en 2025, y varios ya han promulgado legislación.
Los esfuerzos regulatorios a nivel estatal se agrupan principalmente en torno a cuatro aspectos críticos de la IA: su uso en el gobierno, aplicaciones en la atención médica, tecnologías de reconocimiento facial y el floreciente campo de la IA generativa.
La supervisión y el despliegue responsable de la IA son particularmente vitales dentro del sector público. La IA predictiva, que aprovecha el análisis estadístico para pronosticar, ha transformado numerosas funciones gubernamentales, desde la evaluación de la elegibilidad para servicios sociales hasta la información de recomendaciones sobre sentencias de justicia penal y libertad condicional. Sin embargo, la adopción generalizada de la toma de decisiones algorítmicas conlleva costos ocultos sustanciales, incluido el potencial de daños algorítmicos como sesgos raciales y de género. Reconociendo estos riesgos, las legislaturas estatales han introducido proyectos de ley que abordan específicamente el uso de la IA en el sector público, enfatizando la transparencia, la protección del consumidor y la identificación de los riesgos de despliegue. Algunos estados, como Colorado con su Ley de Inteligencia Artificial, exigen requisitos de transparencia y divulgación para los desarrolladores y desplegadores de sistemas de IA involucrados en decisiones trascendentales. La nueva ley de “Derecho a la Computación” de Montana, mientras tanto, exige que los desarrolladores de IA adopten marcos sólidos de gestión de riesgos —métodos estructurados para abordar la seguridad y la privacidad— para los sistemas integrales a la infraestructura crítica. Otros estados, como Nueva York, han establecido organismos dedicados para proporcionar supervisión y autoridad reguladora.
El sector de la atención médica también ha experimentado una oleada de actividad legislativa. Solo en la primera mitad de 2025, 34 estados introdujeron más de 250 proyectos de ley de salud relacionados con la IA, que generalmente se dividen en cuatro categorías. Los proyectos de ley centrados en la transparencia definen los requisitos de divulgación para los desarrolladores de sistemas de IA y las organizaciones que los implementan. Los proyectos de ley de protección del consumidor tienen como objetivo prevenir prácticas discriminatorias por parte de los sistemas de IA y asegurar vías para que los usuarios impugnen las decisiones impulsadas por la IA. La legislación también aborda el uso de la IA por parte de las aseguradoras para aprobaciones y pagos de atención médica, mientras que otros proyectos de ley regulan la aplicación de la tecnología por parte de los médicos en el diagnóstico y tratamiento de pacientes.
Las tecnologías de reconocimiento facial y vigilancia presentan importantes desafíos de privacidad y riesgos de sesgo, particularmente en el contexto de una doctrina legal de larga data en EE. UU. que defiende la autonomía individual contra la interferencia gubernamental. Comúnmente empleadas en la vigilancia predictiva y la seguridad nacional, el software de reconocimiento facial ha demostrado sesgos contra personas de color, lo que genera preocupaciones por las libertades civiles. Una investigación pionera de las científicas informáticas Joy Buolamwolini y Timnit Gebru destacó que dicho software tiene una probabilidad significativamente menor de identificar correctamente rostros más oscuros. El sesgo también puede permear los datos de entrenamiento para estos algoritmos, a menudo exacerbado por la falta de diversidad dentro de los propios equipos de desarrollo. A finales de 2024, 15 estados de EE. UU. habían promulgado leyes para mitigar los posibles daños del reconocimiento facial, con regulaciones que a menudo incluyen requisitos para que los proveedores publiquen informes de pruebas de sesgo, detallen las prácticas de gestión de datos y aseguren la revisión humana en la aplicación de estas tecnologías.
La adopción generalizada de la IA generativa también ha provocado la atención legislativa en muchos estados. La Ley de Política de Inteligencia Artificial de Utah inicialmente requería que las personas y organizaciones divulgaran el uso de IA durante las interacciones si se les preguntaba, aunque su alcance se redujo posteriormente a interacciones que involucran asesoramiento o recopilación de información sensible. El año pasado, California aprobó la AB 2013, una ley de IA generativa que exige que los desarrolladores publiquen información en sus sitios web sobre los datos utilizados para entrenar sus sistemas de IA, incluidos los modelos fundamentales. Estos modelos fundamentales son modelos de IA entrenados en conjuntos de datos excepcionalmente grandes, adaptables a una amplia gama de tareas sin entrenamiento adicional. Dado que los desarrolladores de IA históricamente se han mostrado reacios a divulgar sus datos de entrenamiento, dicha legislación podría proporcionar la transparencia tan necesaria, lo que potencialmente ayudaría a los propietarios de derechos de autor cuyo contenido se utiliza en el entrenamiento de IA.
En ausencia de un marco federal integral, los estados han intervenido para llenar este vacío regulatorio con sus propias iniciativas legislativas. Si bien este mosaico emergente de leyes puede complicar los esfuerzos de cumplimiento para los desarrolladores de IA, muchos observadores sostienen que el compromiso a nivel estatal ofrece una supervisión crucial y necesaria para la privacidad, los derechos civiles y la protección del consumidor. Sin embargo, este progreso descentralizado enfrenta posibles vientos en contra. El “Plan de Acción de IA” de la administración Trump, anunciado en julio de 2025, declaró que la financiación federal relacionada con la IA no debería destinarse a estados con regulaciones de IA “gravosas”. Esta postura podría obstaculizar los esfuerzos estatales para regular la IA, obligando a los estados a sopesar las regulaciones esenciales frente al riesgo de perder financiación federal vital.