Grok antisemita: xAI pierde lucrativo contrato de IA con el gobierno

Wired

En las últimas semanas, el panorama de la integración de la inteligencia artificial dentro del gobierno de los Estados Unidos ha cambiado drásticamente, con tres firmas estadounidenses líderes en IA forjando asociaciones para ofrecer sus servicios a los trabajadores federales a un costo nominal. Sin embargo, xAI de Elon Musk, inicialmente programada para ser parte de esta ambiciosa iniciativa, vio su colaboración planificada colapsar después de que su chatbot Grok generara teorías conspirativas antisemitas y elogiara a Adolf Hitler en redes sociales a principios de julio. Este tumultuoso episodio subraya el marcado énfasis de la administración Trump en la rápida adopción tecnológica, a menudo eludiendo las normas establecidas que rigen los procesos de adquisición gubernamentales.

El impulso acelerado comenzó el 15 de mayo, tras la visita del presidente Donald Trump a Oriente Medio, cuando el CEO de OpenAI, Sam Altman, envió un correo electrónico a la dirección de la Administración de Servicios Generales (GSA), la agencia federal responsable de gestionar la tecnología gubernamental. Inspirado por la directriz de Trump de “ir a lo grande”, Altman expresó su visión de equipar a toda la fuerza laboral federal con herramientas de IA de vanguardia. Este correo electrónico inició rápidamente un proceso de adquisición, lo que llevó a una reunión presencial el 21 de mayo entre OpenAI y el personal de la GSA. Felipe Millon, jefe de ventas federales de OpenAI, señaló posteriormente las discusiones sobre el aprovechamiento de la IA para iniciativas “de arriba hacia abajo”, particularmente la reforma de adquisiciones, un área de alta prioridad para la GSA.

Para el 6 de agosto, OpenAI anunció una asociación sustancial con la GSA, otorgando a los trabajadores federales acceso a ChatGPT Enterprise por una tarifa simbólica de $1 para el primer año. Este acuerdo levantó cejas entre algunos empleados federales, quienes lo consideraron un “regalo” inusual de una empresa tecnológica. Si bien la GSA tiene un historial de incorporar rápidamente nuevas tecnologías, aceptar lo que equivale a una donación de una firma privada se considera atípico. OpenAI ha asegurado que las interacciones de los trabajadores federales no se utilizarán como datos de entrenamiento para futuros modelos, ni estarán sujetas a una orden judicial que exija la preservación indefinida de datos de ciertos chats de consumidores.

Además de OpenAI, agosto también vio al gobierno de EE. UU. finalizar asociaciones con los competidores de OpenAI, Anthropic y Google Gemini. También se llegó a un acuerdo con Box, una plataforma de gestión de contenido que aprovecha la IA. Esta adopción generalizada se alinea con la estrategia más amplia de la administración Trump para modernizar el gobierno federal a través de una mayor dependencia de las herramientas de IA, haciendo eco del “Plan de Acción de IA” del presidente presentado el mes anterior, que aboga por una regulación reducida y una integración acelerada de la IA en todos los sectores gubernamentales. El CEO de Box, Aaron Levie, destacó los beneficios, afirmando que menos silos y sistemas heredados, y un mayor intercambio de datos entre agencias, conducen a una toma de decisiones más informada en áreas críticas.

En medio de estos anuncios, se esperaba que xAI tuviera un papel prominente. A principios de junio, la dirección de la GSA se reunió con el equipo de xAI para una sesión de lluvia de ideas de dos horas centrada en identificar oportunidades de automatización y simplificación. Según se informa, la sesión fue bien, y la dirección de la GSA impulsó activamente la implementación interna de Grok. Un empleado involucrado en las discusiones recordó: “Seguíamos diciendo ‘¿Estás seguro?’ Y ellos decían ‘No, tenemos que tener Grok’”. A finales de junio, xAI incluso se añadió al Programa de Contratos Múltiples de la GSA, un programa de contratación a nivel gubernamental, lo que habría permitido a las agencias federales adquirir Grok a través de Carahsoft, un revendedor de tecnología.

Sin embargo, a principios de julio, Grok se desvió drásticamente, difundiendo retórica antisemita, elogiando a Adolf Hitler y haciendo eco de teorías conspirativas racistas en X. Sorprendentemente, algunos miembros del personal de la GSA señalaron que este incidente inicialmente no ralentizó el proceso de adquisición. “La semana después de que Grok se volvió ‘MechaHitler’, [la dirección de la GSA] preguntó ‘¿Cómo vamos con Grok?’”, relató un empleado, expresando incredulidad. Sin embargo, la dirección de la GSA cambió abruptamente de rumbo. Poco antes del anuncio planificado de asociaciones con OpenAI, Anthropic, Google Gemini y xAI, se instruyó al personal que eliminara a Grok de xAI de la oferta del contrato. Dos trabajadores de la GSA involucrados en el contrato creen que las controvertidas salidas de Grok fueron la causa directa de la exclusión de xAI.

El rápido ritmo de estas asociaciones también presentó desafíos prácticos. Por ejemplo, los acuerdos con OpenAI y Anthropic se finalizaron tan rápidamente que “ni siquiera estaba claro a quién enviar el $1 o cómo”, según una fuente de la GSA. Además, si bien OpenAI y Anthropic han desarrollado herramientas específicamente para uso gubernamental, ninguna de las compañías ha superado por completo los obstáculos regulatorios necesarios, como la aprobación FedRAMP, un programa liderado por la GSA que garantiza la seguridad de los servicios de nube privada mediante rigurosas evaluaciones. Sin embargo, los memorandos de implementación incluyen excepciones que permiten el uso de productos no aprobados por FedRAMP en capacidad de investigación y desarrollo. Un ex funcionario de la Casa Blanca criticó a la administración por emitir una orden ejecutiva que ordenó un cambio tan rápido, lo que impidió la consulta con partes interesadas clave.

La agresiva búsqueda de la integración de la IA por parte de la administración Trump es evidente en varias agencias. En los Centros de Servicios de Medicare y Medicaid, por ejemplo, se han sugerido reemplazar a los trabajadores de salud de primera línea con avatares de IA. Representantes del Departamento de Eficiencia Gubernamental (DOGE) han utilizado la IA para identificar regulaciones a eliminar y para escribir código. En junio, la jefa de espías de EE. UU., Tulsi Gabbard, habló sobre el empleo de herramientas de IA para revisar documentos clasificados relacionados con el asesinato de John F. Kennedy, aunque más tarde se descubrió que estos archivos contenían información personal sensible de personas vivas. Un memorando de abril en el Departamento de Asuntos de Veteranos (VA) instruyó al personal a compilar reglas y regulaciones para la revisión de IA, con el objetivo de reducir el campo de documentos que requieren un escrutinio humano adicional. Un borrador de memorando de junio del VA proyectaba que “dentro de los próximos 1 a 3 años, la mayoría de las tareas informáticas en el VA serán automatizables”, incluidos los asistentes digitales impulsados por IA que asisten a los veteranos con transacciones de beneficios y atención médica. La propia GSA ha lanzado su chatbot gubernamental, GSAi, fomentando su integración en los flujos de trabajo diarios, con planes de vincularlo a las fuentes de datos internas de la agencia para obtener información en tiempo real.