Reino Unido: Juez ordena a HMRC revelar uso de IA en impuestos
La autoridad fiscal del Reino Unido, HM Revenue & Customs (HMRC), ha sido ordenada por un tribunal a revelar si ha desplegado inteligencia artificial (IA) en la toma de decisiones sobre solicitudes de créditos fiscales, marcando una victoria significativa para la transparencia en el uso de tecnología avanzada por parte del gobierno. El fallo histórico surge de un desafío persistente por parte de un asesor fiscal que sospechaba que los sistemas automatizados estaban detrás del rechazo de las solicitudes de créditos fiscales para Investigación y Desarrollo (I+D), lo que planteó preguntas sobre la equidad y la rendición de cuentas en un área crucial de apoyo empresarial.
Esta directiva legal llega en medio de un creciente escrutinio sobre el papel de la IA en la toma de decisiones del sector público, particularmente cuando tales decisiones pueden tener profundas implicaciones financieras para individuos y empresas. La solicitud inicial de transparencia del asesor fiscal, que buscaba detalles sobre el uso de modelos de lenguaje grandes y IA generativa por parte de HMRC dentro de su Equipo de Cumplimiento de Créditos Fiscales de I+D, había sido previamente rechazada por la Hacienda Pública alegando que podría perjudicar la evaluación o recaudación de impuestos. Sin embargo, la decisión del tribunal subraya una creciente expectativa judicial de que los organismos gubernamentales sean transparentes sobre sus procesos algorítmicos.
Si bien los detalles específicos del caso judicial permanecen en secreto, el fallo se inserta en un panorama donde HMRC ya aprovecha ampliamente la IA para el análisis de datos, la identificación de discrepancias en la información del contribuyente y la interconexión de varias bases de datos para detectar ingresos no declarados o anomalías. Sin embargo, la aplicación de la IA en áreas complejas como los créditos fiscales de I+D, diseñados para incentivar la innovación, introduce una capa diferente de preocupación. Las solicitudes de impuestos de I+D a menudo implican evaluaciones técnicas intrincadas, y los recientes casos del Tribunal de Primera Instancia (FTT) han resaltado los desafíos de HMRC para evaluarlas con precisión. Por ejemplo, un fallo de julio de 2024 que involucró a Get Onbord Ltd (GOL) vio al tribunal ponerse del lado de una empresa de software que desarrollaba un sistema de IA para la verificación de clientes, anulando el rechazo de HMRC a su solicitud de crédito fiscal de I+D. Este caso, entre otros, sugirió una “falta de comprensión” por parte de los funcionarios de HMRC con respecto a los matices técnicos de tecnologías avanzadas como la IA en sus evaluaciones, y notablemente trasladó la carga de la prueba a HMRC para refutar las reclamaciones una vez que el reclamante proporcionara evidencia suficiente. De manera similar, las decisiones de finales de 2024 y principios de 2025 relativas a reclamaciones de I+D “subvencionadas” o “externalizadas”, donde HMRC perdió contra pymes como Collins Construction y Stage One Creative Services, han llevado a la Hacienda Pública a reconsiderar su orientación y a no apelar los fallos, lo que señala un patrón más amplio de resistencia judicial a las interpretaciones de HMRC.
El imperativo de la transparencia en los servicios públicos impulsados por la IA no es meramente una sutileza legal; es una piedra angular de la confianza pública. Los principios del derecho público dictan que los organismos gubernamentales deben proporcionar razones para sus decisiones, y un “deber de sinceridad” exige la divulgación completa de la información relevante, especialmente cuando se sospecha que la IA conduce a resultados defectuosos o sesgados. El propio “Plan de Acción de IA para la Justicia” del Ministerio de Justicia, publicado en julio de 2025, defiende la transparencia al comprometerse a publicar casos de uso de IA a través del Centro de Estándares de Grabación de Transparencia Algorítmica (ATRS), con el objetivo de lograr el escrutinio público y la rendición de cuentas. Este compromiso contrasta con la postura más amplia del gobierno del Reino Unido, como se vio en junio de 2025, de no obligar a las empresas tecnológicas privadas a revelar cómo entrenan sus modelos de IA, aunque el caso actual de HMRC se centra en el uso interno del gobierno en lugar del desarrollo del sector privado.
Sin embargo, la rápida adopción de la IA también presenta riesgos inherentes, como lo demuestran los casos de “alucinaciones” de la IA —donde los sistemas generan información inexacta o fabricada— que afectan incluso a los equipos de investigación internos de HMRC. Además, los tribunales han emitido severas advertencias a los profesionales del derecho contra la dependencia de precedentes legales ficticios generados por IA, lo que subraya la necesidad crítica de supervisión y verificación humana en cualquier proceso asistido por IA. Este último fallo contra HMRC sirve como un poderoso recordatorio de que, si bien la IA promete eficiencia, su despliegue en funciones gubernamentales sensibles exige una supervisión rigurosa, una rendición de cuentas clara y, lo que es más importante, una transparencia inquebrantable.