Estados de EE. UU. Lideran Regulación de IA ante Inacción Federal

Fastcompany

Ante la ausencia de una supervisión federal integral, las legislaturas estatales de EE. UU. han emergido como los principales campos de batalla para establecer regulaciones en torno a las tecnologías de inteligencia artificial. Este enfoque descentralizado ganó aún más impulso tras la derrota decisiva en el Congreso de una propuesta de moratoria sobre la regulación de la IA a nivel estatal, despejando efectivamente el camino para que los estados continúen abordando el floreciente panorama tecnológico. De hecho, para 2025, cada estado de EE. UU. había introducido alguna forma de legislación relacionada con la IA, y varios ya habían promulgado leyes. Cuatro aspectos específicos de la IA han captado particularmente la atención de los legisladores estatales: su uso en el gobierno, las aplicaciones sanitarias, las tecnologías de reconocimiento facial y el auge de la IA generativa.

La implementación y supervisión responsables de la IA son especialmente críticas en el sector público. La IA predictiva, que aprovecha el análisis estadístico para generar pronósticos, ya ha transformado numerosas funciones gubernamentales, desde determinar la elegibilidad para servicios sociales hasta informar recomendaciones para sentencias y libertad condicional en justicia penal. Sin embargo, la adopción generalizada de la toma de decisiones algorítmica conlleva costos ocultos significativos, incluido el potencial de daños algorítmicos como sesgos raciales y de género. Reconociendo estos riesgos, las legislaturas estatales han introducido proyectos de ley que se dirigen específicamente al uso de la IA en el sector público, enfatizando la transparencia, protecciones sólidas para el consumidor y un claro reconocimiento de los riesgos de implementación. Por ejemplo, la Ley de Inteligencia Artificial de Colorado exige requisitos de transparencia y divulgación tanto para los desarrolladores como para los implementadores de sistemas de IA involucrados en decisiones trascendentales. La nueva ley de “Derecho a la Computación” de Montana obliga a los desarrolladores de IA a adoptar marcos de gestión de riesgos —métodos estructurados para abordar la seguridad y la privacidad— para los sistemas integrados en infraestructuras críticas. Además, algunos estados, como Nueva York con su proyecto de ley SB 8755, han avanzado para establecer organismos dedicados con autoridad de supervisión y regulación.

El sector de la atención médica también ha experimentado una avalancha de actividad legislativa, con 34 estados introduciendo más de 250 proyectos de ley de salud relacionados con la IA solo en la primera mitad de 2025. Estos proyectos de ley generalmente se dividen en cuatro categorías: requisitos de divulgación para desarrolladores e implementadores de sistemas de IA, medidas de protección al consumidor diseñadas para prevenir la discriminación injusta y garantizar vías para impugnar decisiones impulsadas por la IA, regulaciones que rigen el uso de la IA por parte de las aseguradoras para aprobaciones y pagos de atención médica, y reglas para el uso de la IA por parte de los médicos en el diagnóstico y tratamiento de pacientes.

Las tecnologías de reconocimiento facial y vigilancia presentan desafíos de privacidad distintos y riesgos de sesgo, particularmente dada la doctrina legal de larga data en EE. UU. de proteger la autonomía individual de la interferencia gubernamental. Ampliamente utilizado en la vigilancia predictiva y la seguridad nacional, el software de reconocimiento facial ha demostrado exhibir sesgos contra personas de color. Un estudio seminal de las científicas informáticas Joy Buolamwini y Timnit Gebru reveló que dicho software era significativamente menos propenso a identificar correctamente rostros más oscuros, destacando profundos desafíos para las personas negras y otras minorías históricamente desfavorecidas. Este sesgo a menudo se deriva de la composición de los datos de entrenamiento y la falta de diversidad dentro de los equipos que desarrollan estos algoritmos. Para fines de 2024, 15 estados de EE. UU. habían promulgado leyes para mitigar los posibles daños del reconocimiento facial, con algunas regulaciones que exigen a los proveedores publicar informes de pruebas de sesgo y detallar sus prácticas de gestión de datos, además de exigir la revisión humana en la aplicación de estas tecnologías. Las consecuencias en el mundo real de estos sesgos son claras, como lo ejemplificó el arresto injusto de Porcha Woodruff en 2023, basado únicamente en una tecnología de reconocimiento facial defectuosa.

La proliferación generalizada de la IA generativa también ha suscitado preocupación entre los legisladores estatales. La Ley de Política de Inteligencia Artificial de Utah inicialmente requería una divulgación clara cuando los sistemas de IA generativa se utilizaban para interactuar con personas que preguntaban sobre la participación de la IA, aunque el alcance se redujo posteriormente a interacciones que involucraban asesoramiento o recopilación de información sensible. El año pasado, California aprobó la AB 2013, una ley de IA generativa que obliga a los desarrolladores a divulgar públicamente información en sus sitios web sobre los datos utilizados para entrenar sus sistemas de IA, incluidos los “modelos fundacionales” – modelos de IA entrenados en vastos conjuntos de datos adaptables a diversas tareas sin necesidad de entrenamiento adicional. Dado que los desarrolladores de IA han sido históricamente reticentes acerca de sus datos de entrenamiento, dicha legislación podría empoderar a los propietarios de derechos de autor cuyo contenido se utiliza para entrenar modelos de IA al fomentar una mayor transparencia.

Ante la ausencia de un marco federal cohesivo, los estados han intentado proactivamente cerrar la brecha regulatoria a través de sus propios esfuerzos legislativos. Si bien este mosaico emergente de leyes puede complicar el cumplimiento para los desarrolladores de IA, proporciona una supervisión crucial y muy necesaria en lo que respecta a la privacidad, los derechos civiles y la protección del consumidor. Sin embargo, este progreso liderado por los estados se enfrenta a un obstáculo potencial: el “Plan de Acción de IA” de la administración Trump, anunciado el 23 de julio de 2025. El plan establece explícitamente que “El Gobierno Federal no debe permitir que los fondos federales relacionados con la IA se dirijan a estados con regulaciones de IA onerosas.” Esta directriz podría impedir los esfuerzos estatales para regular la IA, obligándolos a sopesar las regulaciones esenciales frente al riesgo de perder financiación federal vital.