TPC25: El Rol Creciente de la IA en la Ciencia, Datos Multimodales y No-LLMs

Aiwire

La conferencia TPC25 de la semana pasada puso de manifiesto una serie de preguntas críticas que dan forma al futuro de la inteligencia artificial, yendo más allá del bombo de los grandes modelos de lenguaje para abordar desafíos fundamentales en datos, evaluación y rendición de cuentas. Una sesión plenaria con cuatro distinguidos oradores profundizó en cómo acelerar el descubrimiento científico con IA manteniendo el control, la intrincada tarea de rastrear las salidas de un modelo de lenguaje hasta sus datos de entrenamiento, la compleja noción de equidad cuando la IA interpreta mapas en lugar de texto, y las formas sin precedentes en que estos sofisticados sistemas pueden fallar.

Prasanna Balaprakash, director de Programas de IA en el Laboratorio Nacional de Oak Ridge (ORNL), iluminó el compromiso de larga data de la institución con la IA, que se remonta a 1979. Destacó el papel histórico de ORNL en la pionería de la IA para aplicaciones científicas, desde los primeros sistemas expertos basados en reglas hasta albergar potentes superordenadores como Titan y el actual Frontier, equipado con decenas de miles de GPUs. Hoy, la iniciativa de IA de ORNL prioriza la construcción de modelos de IA asegurados y eficientes para simulación científica, instalaciones experimentales y seguridad nacional. Esto implica desarrollar métodos robustos para la validación, verificación, cuantificación de la incertidumbre y razonamiento causal, junto con estrategias para escalar grandes modelos en superordenadores y desplegar modelos más pequeños en el borde. Balaprakash enfatizó el enfoque de ORNL en modalidades no tradicionales, como los datos espacio-temporales a gran escala cruciales para las simulaciones de fusión nuclear, lo que llevó a avances como el Modelo Fundacional Base de Oak Ridge para la Previsibilidad del Sistema Terrestre, que logró un rendimiento de exaescala y modelos con hasta 10 mil millones de parámetros, una primicia para este tipo de datos. También detalló los esfuerzos en modelos fundacionales de grafos a gran escala para la ciencia de materiales y la integración de la IA con instrumentos experimentales, lo que permite el procesamiento de datos en tiempo real y la dirección inteligente de experimentos para optimizar el uso de recursos.

Cambiando el enfoque al funcionamiento interno de los grandes modelos de lenguaje, Jiacheng Liu del Allen Institute for AI (AI2) presentó OLMoTrace, un sistema innovador diseñado para abrir la “caja negra” de los LLM. Esta herramienta, integrada dentro de la familia de modelos OLMo abiertos de AI2, permite a los usuarios rastrear la respuesta generada por un LLM directamente hasta los segmentos específicos de su conjunto de datos de entrenamiento de miles de billones de tokens. Utilizando un sistema de indexación optimizado, OLMoTrace identifica rápidamente coincidencias exactas entre las salidas del modelo y sus documentos fuente, lo que permite verificar la información, comprender la procedencia de la respuesta de un modelo e incluso exponer las raíces de las “alucinaciones”, instancias en las que los modelos generan contenido fabricado. Liu demostró cómo el sistema reveló que un modelo había aprendido a producir resultados falsos de ejecución de código a partir de diálogos de entrenamiento donde los estudiantes proporcionaban salidas sin realmente ejecutar el código. Para investigadores y profesionales, este nivel de transparencia es invaluable para auditar el comportamiento del modelo, asegurar el cumplimiento de las reglas emergentes de gobernanza de la IA y complementar los estudios de interpretabilidad mecánica al vincular comportamientos de alto nivel con los datos subyacentes.

Una perspectiva más sobria sobre el impacto social de la IA provino de Ricardo Baeza-Yates, director del BSC AI Institute, quien ofreció una visión crítica de lo que él denomina “IA Irresponsable”. Argumentó que los sistemas de IA actuales son propensos a fallas como la discriminación automatizada, la propagación de desinformación y el desperdicio de recursos, a menudo porque son tratados como espejos del razonamiento humano en lugar de meros motores predictivos. Baeza-Yates advirtió contra la antropomorfización de la IA con términos como “IA ética”, afirmando que la ética y la confianza son cualidades inherentemente humanas, y atribuirlas a las máquinas desvía la responsabilidad de sus diseñadores humanos. Destacó los crecientes daños de la IA generativa, desde la desinformación hasta las disputas de derechos de autor y las preocupaciones de salud mental, citando casos trágicos donde los chatbots estuvieron implicados en suicidios. Subrayó el peligro de los “errores no humanos”, errores que la IA comete y que los humanos no cometerían, para los cuales la sociedad está mal preparada. Baeza-Yates sostuvo que medir el éxito de la IA únicamente por la precisión es insuficiente; en cambio, el enfoque debe estar en comprender y mitigar los errores. También desafió la narrativa de la democratización de la IA, señalando que las divisiones lingüísticas y digitales excluyen efectivamente a una vasta porción de la población global del acceso a los modelos de IA líderes.

Finalmente, la Dra. Kyoung Sook Kim, Subdirectora del Instituto Nacional de Ciencia y Tecnología Industrial Avanzada (AIST) de Japón, abordó el tema crítico de la equidad en la IA geoespacial (GeoAI). A medida que GeoAI interpreta cada vez más imágenes satelitales, infraestructura urbana y datos ambientales para aplicaciones como la respuesta a desastres y la planificación urbana, garantizar resultados equitativos se vuelve primordial. La Dra. Kim explicó que, a diferencia de la IA de texto o imagen, los sistemas geoespaciales enfrentan desafíos únicos en la definición y medición de la equidad. La recopilación desigual de datos, las brechas en la cobertura espacial y los supuestos sesgados durante el entrenamiento del modelo pueden llevar a resultados sesgados, lo que afecta particularmente la asignación de recursos y las decisiones de planificación. La equidad en GeoAI, argumentó, no puede ser una solución única para todos, sino que debe tener en cuenta las diferencias regionales, las variaciones de población y la calidad de los datos disponibles. Subrayó la importancia de examinar las decisiones de diseño tempranas —cómo se seleccionan, etiquetan y procesan los datos— para evitar que el sesgo se incruste en los sistemas. La Dra. Kim abogó por marcos compartidos y estándares internacionales, incluidos los nuevos esfuerzos de ISO, para establecer definiciones consistentes de equidad y calidad de los datos, reconociendo que la naturaleza contextual de la geografía, la historia y la complejidad social exige un enfoque matizado para construir y aplicar estos potentes sistemas.

Colectivamente, estas discusiones en TPC25 señalaron una evolución significativa en la investigación de la IA. A medida que los modelos crecen en complejidad y escala, el énfasis está cambiando de meros puntos de referencia de rendimiento a una comprensión más profunda de la procedencia de los datos, una evaluación rigurosa de los resultados y el impacto de la IA en el mundo real. El futuro de la IA, acordaron estos expertos, no depende solo de algoritmos más inteligentes, sino de cuán responsable e inclusivamente se diseñan, construyen y despliegan.