IA en informes legales: ¿Es auditable su fuerza probatoria?
La creciente adopción de la inteligencia artificial por parte de los departamentos de policía y otras instituciones para generar informes y narrativas legales está planteando importantes preguntas sobre la naturaleza de la evidencia. Tradicionalmente, documentos como informes policiales, reclamaciones de seguros y declaraciones legales se basan en la observación humana, el testimonio o la experiencia directa. Sin embargo, los sistemas de IA ahora están creando informes escritos completos a partir de entradas como audio de cámaras corporales, dictados de oficiales y metadatos. Si bien estos sistemas ofrecen velocidad, estandarización y coherencia, difieren fundamentalmente de los autores humanos: nunca han presenciado directamente los eventos que describen.
Este cambio significa que el lenguaje con un peso legal significativo se está produciendo sin percepción humana directa. Estos informes generados por IA a menudo imitan el tono autoritario del testimonio legal, incluyendo declaraciones de causalidad, referencias a pruebas y descripciones de acciones. Esto plantea un dilema legal y ético crítico: ¿puede una frase considerarse evidencia incluso si ningún ser humano la pronunció, presenció el evento que describe o revisó su generación? Inquietantemente, la respuesta a menudo es sí, lo que lleva a implicaciones potencialmente problemáticas en contextos legales y administrativos.
Un artículo reciente, “Testimonio Predictivo: Sintaxis Compilada en Informes Policiales Generados por IA y Narrativas Judiciales”, profundiza en cómo estos sistemas de IA funcionan como “motores de sintaxis compilada”. Esto significa que operan aplicando reglas lingüísticas, plantillas y estructuras gramaticales predefinidas para transformar entradas crudas, a menudo no estructuradas, en texto pulido y legalmente resonante. En este proceso, el artículo identifica la introducción de lo que denomina “evidencia condicionada por operador”, elecciones sutiles realizadas por la IA que pueden alterar significativamente la autoridad percibida, la certeza y la interpretación de una oración.
El artículo destaca seis “operadores” centrales que influyen en cómo un informe funciona como evidencia:
Eliminación de Agente (Agent Deletion): Eliminar el sujeto que realiza una acción, ocultando quién hizo qué.
Atenuación Modal (Modal Attenuation): Reemplazar afirmaciones fuertes con términos más débiles y menos definitivos como “puede”, “podría” o “aparentemente”.
Inserción de Marco Evidencial (Evidential Frame Insertion): Añadir frases como “los registros indican…” sin proporcionar acceso a los registros subyacentes.
Cambio de Anclaje Temporal (Temporal Anchoring Shift): Cambiar el tiempo reportado de un evento para alinearlo con el tiempo de procesamiento del sistema en lugar de la ocurrencia real.
Nominalización en Serie (Serial Nominalization): Transformar acciones dinámicas en sustantivos estáticos, lo que puede despersonalizar los eventos.
Cuasi Cita (Quasi Quotation): Hacer que las declaraciones parafraseadas suenen como citas directas, alterando potencialmente su intención o contexto original.
Cada una de estas manipulaciones lingüísticas puede dar forma sutilmente a cómo se entienden la responsabilidad, la certeza y la causalidad dentro de un informe, yendo más allá de la mera descripción para influir en la percepción.
Las implicaciones de estos informes generados por IA son profundas, ya que se utilizan activamente en decisiones del mundo real, incluyendo arrestos, denegaciones de reclamaciones de seguros y presentaciones judiciales. A menudo, el proceso por el cual se generan estas frases no se verifica. Por ejemplo, una declaración como “El sujeto fue detenido después de que se emitieran órdenes” carece de detalles cruciales sobre quién emitió las órdenes o cuáles fueron esas órdenes. De manera similar, “Los registros del sistema muestran que el sospechoso negó su implicación” plantea preguntas sobre la ubicación y la verificabilidad de estos “registros del sistema” y quién escuchó realmente la negación. Una frase como “Pudo haber habido una entrada forzada” difumina la línea entre la causa probable y la mera especulación.
Tal lenguaje puede navegar por los sistemas legales sin ser cuestionado precisamente porque “suena bien” y se ajusta a las expectativas institucionales. Sin embargo, puede ser estructuralmente vacío, careciendo de un agente claro, fuentes verificables o un anclaje sólido en la realidad.
En lugar de abogar por una prohibición de los informes generados por IA, el artículo propone una solución más práctica: hacer que la sintaxis sea auditable. Describe un camino de cuatro etapas para rastrear la evolución de un informe desde su entrada bruta hasta su forma final:
Flujo de Entrada (Input Stream): Los datos brutos iniciales, como grabaciones de audio, registros de tiempo o formularios.
Registro de Compilación (Compilation Log): Un registro de los procesos internos del sistema y las reglas utilizadas para generar el texto.
Rastreo de Operadores (Operator Trace): Identificación de qué operadores lingüísticos específicos se aplicaron y dónde dentro del texto.
Superficie Probatoria (Evidentiary Surface): El informe final y pulido.
Este marco permitiría a las instituciones rastrear cómo se construyó una oración en particular, identificar qué operadores influyeron en su fraseo y evaluar cualquier debilidad probatoria resultante. El artículo también sugiere una prueba de detección: cualquier cláusula que carezca de un hablante conocido, cite fuentes no verificables o exhiba referencias de tiempo desplazadas debe ser marcada, corregida o excluida de consideración.
Este enfoque es innovador porque no intenta deducir la “intención” de una IA, de la que carece. En cambio, se centra en la estructura objetiva del lenguaje generado, tratando cada oración como una acción. Si la estructura crea la apariencia de evidencia sin la sustancia subyacente, esa estructura debe ser rigurosamente probada. Esta solución es ampliamente aplicable a abogados, jueces, ingenieros y eticistas, y lo que es crucial, no requiere desmantelar los flujos de trabajo automatizados existentes, ya que muchos de los artefactos requeridos —como registros, indicaciones e historiales de edición— ya existen dentro de estos sistemas. La clave es aprovecharlos para una mayor transparencia y rendición de cuentas.