El plan de IA 'todo en uno' del gobierno de EE. UU.: Grandes riesgos
El gobierno de Estados Unidos está embarcándose en una ambiciosa “estrategia de IA-primero”, con el objetivo de integrar profundamente la inteligencia artificial en sus funciones principales. Este impulso significativo, ejemplificado por un plan de acción recientemente revelado el 23 de julio, señala un cambio integral hacia el aprovechamiento de la IA en todas las agencias federales. Iniciativas recientes subrayan este compromiso, incluyendo la adjudicación por parte del Departamento de Defensa de contratos por valor de 200 millones de dólares a firmas líderes en IA como Anthropic, Google, OpenAI y xAI. Notablemente, xAI de Elon Musk ha lanzado “Grok para el Gobierno”, una plataforma diseñada para facilitar la adquisición de productos de IA por parte de agencias federales a través de la Administración de Servicios Generales.
Un pilar central de esta estrategia implica la agregación de vastas cantidades de datos gubernamentales sensibles. Los informes indican que el grupo asesor conocido como el Departamento de Eficiencia Gubernamental ya ha comenzado a acceder y consolidar información personal, registros de salud, detalles fiscales y otros datos protegidos de varios departamentos federales, incluidos el Departamento del Tesoro y Asuntos de Veteranos. El objetivo final es acumular esta diversa información en una única base de datos centralizada.
Si bien el impulso hacia la eficiencia es claro, esta rápida adopción de la IA, particularmente con información sensible, ha encendido importantes preocupaciones entre los expertos con respecto a los posibles riesgos de privacidad y ciberseguridad. Estas preocupaciones se amplifican a medida que las salvaguardias preventivas tradicionales, como los límites estrictos al acceso a los datos, parecen estar relajándose.
Bo Li, experto en IA y seguridad de la Universidad de Illinois Urbana-Champaign, destaca el peligro inmediato de la fuga de datos. Cuando los modelos de IA son entrenados o ajustados utilizando información confidencial, pueden memorizarla inadvertidamente. Por ejemplo, un modelo entrenado con datos de pacientes podría no solo responder a consultas generales sobre la prevalencia de enfermedades, sino que también podría revelar inadvertidamente las condiciones de salud, números de tarjetas de crédito, direcciones de correo electrónico o direcciones domiciliarias de individuos específicos. Además, dicha información privada, si se usa en el entrenamiento o como referencia para generar respuestas, podría permitir que la IA infiera conexiones nuevas y potencialmente dañinas entre piezas dispares de datos personales.
Jessica Ji, experta en IA y ciberseguridad del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown, señala que consolidar datos de varias fuentes en un único conjunto de datos grande crea un objetivo irresistible para los actores maliciosos. En lugar de necesitar violar múltiples agencias individuales, un hacker podría potencialmente comprometer una única fuente de datos consolidada, obteniendo acceso a un tesoro de información sin precedentes. Históricamente, las organizaciones estadounidenses han evitado deliberadamente vincular información de identificación personal, como nombres y direcciones, con condiciones de salud sensibles. Ahora, la consolidación de datos gubernamentales para el entrenamiento de IA introduce importantes riesgos de privacidad. La capacidad de los sistemas de IA para establecer vínculos estadísticos dentro de grandes conjuntos de datos, especialmente aquellos que contienen información financiera y médica, plantea desafíos abstractos pero profundos para las libertades civiles y la privacidad. Las personas podrían verse afectadas negativamente sin entender nunca cómo estos impactos están vinculados al sistema de IA.
Li elabora además sobre ataques cibernéticos específicos que se vuelven posibles. Un “ataque de membresía” permite a un atacante determinar si los datos de una persona en particular fueron incluidos en el conjunto de datos de entrenamiento del modelo. Un “ataque de inversión de modelo” más severo va más allá de la mera membresía, permitiendo al atacante reconstruir un registro completo a partir de los datos de entrenamiento, revelando potencialmente la edad, el nombre, el correo electrónico e incluso el número de tarjeta de crédito de una persona. El más alarmante, un “ataque de robo de modelo”, implica extraer los componentes o parámetros centrales del modelo de IA, que luego podrían usarse para filtrar datos adicionales o replicar el modelo con fines nefastos.
Si bien se están realizando esfuerzos para asegurar estos modelos avanzados, una solución completa sigue siendo esquiva. Li señala que los “modelos de salvaguardia” pueden actuar como un cortafuegos de IA, identificando y filtrando información sensible tanto en las entradas como en las salidas. Otra estrategia, el “desaprendizaje”, tiene como objetivo entrenar modelos para que olviden información específica. Sin embargo, el desaprendizaje puede degradar el rendimiento del modelo y no puede garantizar la eliminación completa de datos sensibles. De manera similar, los modelos de salvaguardia requieren un desarrollo continuo y cada vez más sofisticado para contrarrestar el panorama evolutivo de ataques y vectores de fuga de información. Como concluye Li, “hay mejoras en el lado de la defensa, pero aún no una solución”.
Más allá de los desafíos técnicos, los riesgos organizacionales y basados en procesos también son considerables. Ji destaca que el impulso para adoptar rápidamente la IA a menudo proviene de la cima, lo que ejerce una inmensa presión sobre el personal de nivel inferior para implementar sistemas rápidamente sin la debida consideración de las posibles ramificaciones. Esto puede llevar a una falta de control y visibilidad sobre cómo se circulan los datos internamente. Por ejemplo, si una agencia carece de políticas claras que prohíban a los empleados usar chatbots de IA comerciales, los trabajadores podrían introducir inadvertidamente código sensible o datos internos en estas plataformas externas para obtener asistencia. Dichos datos podrían ser luego ingeridos por el proveedor del chatbot para sus propios fines de entrenamiento, creando un riesgo de exposición invisible e incontrolado.
Los expertos recomiendan universalmente priorizar la seguridad como algo primordial. Ji aconseja adaptar los procesos de gestión de riesgos existentes a la naturaleza única de las herramientas de IA, enfatizando que las organizaciones deben evaluar a fondo tanto los riesgos como los beneficios. Li subraya la necesidad inmediata de emparejar cada modelo de IA con una salvaguardia como mecanismo de defensa fundamental. Además, el “red teaming” continuo (donde los hackers éticos simulan ataques para descubrir vulnerabilidades) es crucial para identificar nuevas debilidades con el tiempo. A medida que el gobierno de EE. UU. se “lanza de lleno” a la IA, el imperativo de equilibrar la innovación con medidas robustas de seguridad y privacidad nunca ha sido más crítico.