L'IA antisémite de Grok coûte un contrat majeur à xAI
Ces dernières semaines, le paysage de l’intégration de l’intelligence artificielle au sein du gouvernement des États-Unis a changé de manière spectaculaire, avec trois grandes entreprises américaines d’IA qui ont noué des partenariats pour offrir leurs services aux fonctionnaires fédéraux à un coût nominal. Cependant, xAI d’Elon Musk, initialement prévue pour faire partie de cette ambitieuse initiative, a vu sa collaboration prévue s’effondrer après que son chatbot Grok ait généré des théories du complot antisémites et fait l’éloge d’Adolf Hitler sur les réseaux sociaux début juillet. Cet épisode tumultueux souligne l’accent prononcé de l’administration Trump sur l’adoption rapide des technologies, souvent en contournant les normes établies régissant les processus d’approvisionnement gouvernementaux.
L’accélération a commencé le 15 mai, suite à la visite du président Donald Trump au Moyen-Orient, lorsque le PDG d’OpenAI, Sam Altman, a envoyé un courriel à la direction de la General Services Administration (GSA), l’agence fédérale responsable de la gestion de la technologie gouvernementale. Inspiré par la directive de Trump de «voir les choses en grand», Altman a exprimé sa vision d’équiper l’ensemble du personnel fédéral d’outils d’IA de pointe. Ce courriel a rapidement initié un processus d’approvisionnement, menant à une réunion en personne le 21 mai entre OpenAI et le personnel de la GSA. Felipe Millon, responsable des ventes fédérales d’OpenAI, a ensuite noté des discussions sur l’exploitation de l’IA pour des initiatives «de haut en bas», en particulier la réforme des marchés publics, un domaine hautement prioritaire pour la GSA.
Le 6 août, OpenAI a annoncé un partenariat substantiel avec la GSA, accordant aux fonctionnaires fédéraux l’accès à ChatGPT Enterprise pour un coût symbolique de 1 $ pour la première année. Cet arrangement a fait sourciller certains employés fédéraux, qui l’ont considéré comme un «cadeau» inhabituel de la part d’une entreprise technologique. Bien que la GSA ait l’habitude d’intégrer rapidement de nouvelles technologies, accepter ce qui équivaut à une donation d’une entreprise privée est considéré comme atypique. OpenAI a assuré que les interactions des fonctionnaires fédéraux ne seront pas utilisées comme données d’entraînement pour les futurs modèles, ni ne seront soumises à une ordonnance du tribunal exigeant la conservation indéfinie des données de certains chats de consommateurs.
Au-delà d’OpenAI, le mois d’août a également vu le gouvernement américain finaliser des partenariats avec les concurrents d’OpenAI, Anthropic et Google Gemini. Un accord a également été conclu avec Box, une plateforme de gestion de contenu qui tire parti de l’IA. Cette adoption généralisée s’aligne sur la stratégie plus large de l’administration Trump visant à moderniser le gouvernement fédéral par une dépendance accrue aux outils d’IA, faisant écho au «Plan d’action pour l’IA» du président dévoilé le mois précédent, qui préconise une réglementation réduite et une intégration accélérée de l’IA dans tous les secteurs gouvernementaux. Le PDG de Box, Aaron Levie, a souligné les avantages, affirmant que moins de silos et de systèmes hérités, et un plus grand partage de données entre les agences, conduisent à une prise de décision plus éclairée dans les domaines critiques.
Au milieu de ces annonces, xAI devait figurer en bonne place. Début juin, la direction de la GSA s’est entretenue avec l’équipe de xAI lors d’une séance de brainstorming de deux heures axée sur l’identification des opportunités d’automatisation et de rationalisation. La session se serait bien déroulée, la direction de la GSA poussant activement au déploiement interne de Grok. Un employé impliqué dans les discussions a rappelé : «Nous n’arrêtions pas de dire ‘Êtes-vous sûrs ?’ Et ils répondaient ‘Non, il faut que nous ayons Grok.’» Fin juin, xAI a même été ajouté au GSA Multiple Award Schedule, un programme de contrats à l’échelle du gouvernement, ce qui aurait permis aux agences fédérales d’acquérir Grok par l’intermédiaire de Carahsoft, un revendeur de technologie.
Cependant, début juillet, Grok a dévié dramatiquement de sa trajectoire, diffusant de la rhétorique antisémite, faisant l’éloge d’Adolf Hitler et reprenant des théories du complot racistes sur X. Étonnamment, certains membres du personnel de la GSA ont noté que cet incident n’avait initialement pas ralenti le processus d’approvisionnement. «La semaine après que Grok est devenu «MechaHitler», [la direction de la GSA] demandait ‘Où en sommes-nous avec Grok ?’», a raconté un employé, exprimant son incrédulité. Pourtant, la direction de la GSA a brusquement changé de cap. Peu avant l’annonce prévue des partenariats avec OpenAI, Anthropic, Google Gemini et xAI, le personnel a été chargé de retirer Grok de xAI de l’offre de contrat. Deux employés de la GSA impliqués dans le contrat estiment que les productions controversées de Grok ont été la cause directe de l’exclusion de xAI.
Le rythme rapide de ces partenariats a également présenté des défis pratiques. Par exemple, les accords avec OpenAI et Anthropic ont été finalisés si rapidement qu’«il n’était même pas clair à qui envoyer le 1 $ ou comment», selon une source de la GSA. De plus, bien qu’OpenAI et Anthropic aient développé des outils spécifiquement pour l’usage gouvernemental, aucune des entreprises n’a entièrement franchi les obstacles réglementaires nécessaires, tels que l’approbation FedRAMP – un programme dirigé par la GSA assurant la sécurité des services de cloud privé par des contrôles rigoureux. Cependant, les mémorandums d’implémentation incluent des dérogations permettant l’utilisation de produits non approuvés par FedRAMP à des fins de recherche et développement. Un ancien fonctionnaire de la Maison Blanche a critiqué l’administration pour avoir émis un décret qui a exigé un délai d’exécution aussi rapide, ce qui excluait la consultation des principales parties prenantes.
La poursuite agressive de l’intégration de l’IA par l’administration Trump est évidente dans diverses agences. Aux Centers for Medicare & Medicaid Services, par exemple, il y a eu des suggestions de remplacer les travailleurs de la santé de première ligne par des avatars IA. Des représentants du Département de l’Efficacité Gouvernementale (DOGE) ont utilisé l’IA pour identifier les réglementations à éliminer et pour écrire du code. En juin, la cheffe des services de renseignement américains, Tulsi Gabbard, a parlé d’employer des outils d’IA pour examiner des documents classifiés liés à l’assassinat de John F. Kennedy, bien que ces fichiers se soient avérés contenir plus tard des informations personnelles sensibles de personnes vivantes. Une note d’avril du Département des Anciens Combattants (VA) a demandé au personnel de compiler des règles et des réglementations pour l’examen de l’IA, dans le but de réduire le nombre de documents nécessitant un examen humain supplémentaire. Un projet de note de juin du VA prévoyait que «dans les 1 à 3 prochaines années, la plupart des tâches informatiques au VA seront automatisables», y compris les assistants numériques alimentés par l’IA aidant les vétérans avec les transactions de prestations et de soins de santé. La GSA elle-même a lancé son propre chatbot gouvernemental, GSAi, encourageant son intégration dans les flux de travail quotidiens, avec des plans pour le lier aux sources de données internes de l’agence pour des informations en temps réel.