Predicción criminal con IA en Reino Unido: ¿Datos o adivinanzas?
El gobierno del Reino Unido ha presentado una ambiciosa iniciativa para desplegar inteligencia artificial en un intento de anticipar el crimen, una medida que ha generado inmediatamente comparaciones con la visión distópica de “Minority Report”. Mientras que la película de ciencia ficción presentaba “precogs” psíquicos para prever actos criminales, este esquema del mundo real pretende aprovechar datos, algoritmos e IA para “ayudar a la policía a atrapar a los criminales antes de que actúen”.
El proyecto, anunciado oficialmente por el Secretario de Ciencia y Tecnología, Peter Kyle, creará mapas interactivos detallados de la delincuencia en Inglaterra y Gales. Estos mapas están diseñados para identificar dónde es más probable que ocurran los delitos, mediante la recopilación y el análisis de vastos conjuntos de datos de la policía, los ayuntamientos y los servicios sociales. Esta información incluirá antecedentes penales, ubicaciones de incidentes anteriores e incluso patrones de comportamiento de delincuentes conocidos. El objetivo declarado del gobierno es mejorar la seguridad pública, con un enfoque particular en la lucha contra los delitos que hacen que las personas se sientan inseguras en sus barrios, como el robo, el comportamiento antisocial, los delitos con arma blanca y los delitos violentos. Un objetivo clave es reducir a la mitad los delitos con arma blanca y la violencia contra las mujeres y las niñas en una década.
Respaldado por una inversión inicial de 4 millones de libras esterlinas para prototipos que se esperan para abril de 2026, el sistema completamente operativo está programado para su despliegue en 2030, formando la piedra angular del programa más amplio de Aceleración de Misiones de I+D de 500 millones de libras esterlinas del gobierno y la Misión Calles Más Seguras. Los partidarios, incluidas organizaciones como Neighbourhood Watch y Resolve, han elogiado la iniciativa como un “momento histórico” para la seguridad comunitaria, creyendo que permitirá a las fuerzas del orden dirigir los recursos de manera más efectiva y prevenir la victimización. El Secretario Kyle afirmó que “la tecnología de vanguardia como la IA puede mejorar nuestras vidas de muchas maneras, incluso manteniéndonos seguros”, posicionando la tecnología para beneficiar a “las víctimas sobre los vándalos, la mayoría respetuosa de la ley sobre los infractores de la ley”.
Sin embargo, el ambicioso plan ha desatado una tormenta de críticas de parte de los defensores de la privacidad y los grupos de libertades civiles, quienes advierten de un peligroso deslizamiento hacia una “sociedad de vigilancia total”. Organizaciones como Big Brother Watch y Liberty han expresado profundas preocupaciones de que tales sistemas corran el riesgo de socavar la presunción fundamental de inocencia al atacar a individuos o áreas basándose en predicciones algorítmicas en lugar de pruebas concretas de irregularidades. La Baronesa Shami Chakrabarti, exdirectora de Liberty, describió estas tecnologías policiales dirigidas por IA como “increíblemente intrusivas”, destacando que su despliegue a menudo ha ocurrido “completamente fuera de la ley” debido a la falta de legislación específica.
Una preocupación ética central y profundamente inquietante gira en torno al potencial de los algoritmos de IA para absorber y amplificar los sesgos sociales existentes incrustados en los datos policiales históricos. Los críticos argumentan que esto podría llevar a la focalización desproporcionada y la excesiva vigilancia de ciertas comunidades, particularmente minorías étnicas y grupos económicamente desfavorecidos. Un informe condenatorio de Amnistía Internacional en febrero de 2025 declaró explícitamente que los sistemas de policía predictiva están “sobrealimentando el racismo” en el Reino Unido, creando un bucle de retroalimentación negativo donde se refuerza la discriminación preexistente. La tecnología de reconocimiento facial en vivo (LFR) de la Policía Metropolitana, por ejemplo, ya ha enfrentado acusaciones de sesgo racial y de identificación errónea de individuos negros y de minorías étnicas.
La falta de transparencia y rendición de cuentas inherente a muchos algoritmos de IA exacerba aún más estas preocupaciones. La naturaleza opaca de cómo estos sistemas toman decisiones erosiona la confianza pública, lo que dificulta que los individuos o incluso los organismos legales comprendan por qué se toman ciertas acciones. Esto ha llevado a llamamientos urgentes para marcos legales sólidos y un mayor escrutinio parlamentario para garantizar los estándares éticos y prevenir la elaboración de perfiles injustos.
De hecho, el impulso de la IA en la policía va más allá del mapeo predictivo. El Ministerio de Justicia está desarrollando un programa de “predicción de asesinatos”, ahora rebautizado como “intercambio de datos para mejorar la evaluación de riesgos”, que tiene como objetivo identificar a las personas con mayor probabilidad de cometer homicidio utilizando datos personales. Este proyecto también ha sido calificado de “escalofriante y distópico” por los activistas que temen su sesgo inherente contra las poblaciones de minorías étnicas y pobres. Mientras tanto, las herramientas de IA también se están implementando para abordar las bandas de acoso sexual, traduciendo idiomas extranjeros y analizando datos digitales para encontrar patrones entre sospechosos, lo que ilustra el amplio alcance de la integración de la IA en la aplicación de la ley.
A pesar de la insistencia del gobierno en los beneficios de la tecnología para la seguridad pública, las crecientes preocupaciones éticas y de derechos humanos no pueden ignorarse. La pregunta sigue siendo si el Reino Unido puede aprovechar el poder de la IA para prevenir el crimen sin sacrificar las libertades fundamentales e incrustar sesgos sistémicos en el tejido mismo de su sistema de justicia.