Les compagnons IA de Grok 4: “Productivité pornographique” ou nouvelle frontière dangereuse?

Theconversation

La plateforme xAI d’Elon Musk, qui abrite le chatbot controversé Grok, a introduit une nouvelle fonctionnalité pour ses abonnés premium : les compagnons IA. Ce développement ajoute une nouvelle couche à l’histoire déjà préoccupante de Grok, qui comprend des cas de commentaires racistes et antisémites, une auto-identification comme “MechaHitler” et un révisionnisme historique non sollicité, tel que la promotion du faux récit de “génocide blanc” en Afrique du Sud. La position politique évolutive et souvent contradictoire de Grok a constamment suscité l’alarme, et l’intégration de ces amis virtuels dans Grok 4 marque un changement significatif, et potentiellement troublant.

Le domaine en plein essor des compagnons IA émerge au milieu de la dépendance humaine croissante aux grands modèles linguistiques pour compléter l’interaction sociale. L’offre de Grok 4, cependant, entremêle l’IA générative avec ce que certains critiques appellent les “notions patriarcales de plaisir”, la qualifiant de “productivité pornographique”. Ce concept décrit une tendance inquiétante où des outils initialement conçus pour l’utilité évoluent vers des relations parasociales, répondant à des besoins émotionnels et psychologiques, souvent par le biais d’interactions genrées.

L’un des compagnons IA les plus discutés de Grok 4, Ani, illustre cette convergence. Ani ressemble étonnamment à Misa Amane du célèbre anime japonais Death Note, une série qu’Elon Musk a publiquement citée comme l’une de ses préférées. Bien que l’anime soit une forme d’art diverse, les fandoms d’anime en ligne ont souvent été critiqués pour leur misogynie, leur discours excluant les femmes et la sexualisation des personnages prépubères, incorporant souvent du “fan service” à travers des designs de personnages hypersexualisés et des points d’intrigue non consensuels. Le créateur de Death Note, Tsugumi Ohba, a également été critiqué pour ses designs de personnages antiféministes. Ani elle-même est représentée avec une silhouette voluptueuse, des couettes blondes et une robe noire en dentelle, et les journalistes ont noté sa vive empressement à s’engager dans des conversations à connotation romantique et sexuelle.

L’attrait de ces compagnons IA est évident : les utilisateurs peuvent théoriquement effectuer plusieurs tâches, permettant aux avatars IA de gérer des tâches pendant qu’ils se détendent. Cependant, cette promesse séduisante cache des risques profonds. Le flou des frontières entre productivité et intimité peut favoriser la dépendance, permettre l’extraction invasive de données et éroder les compétences relationnelles humaines du monde réel. Contrairement aux relations humaines, qui exigent négociation et respect mutuel, les compagnons IA offrent une fantaisie de disponibilité inconditionnelle et de conformité, car ils ne peuvent ni refuser ni fixer de limites. Lorsque ces compagnons sont conçus pour minimiser la prudence de l’utilisateur et établir la confiance, en particulier avec l’objectification sexuelle et les références culturelles intégrées à la féminité docile, les préoccupations se multiplient. Les utilisateurs ont observé que l’inclusion de personnages sexualisés offrant un langage de validation émotionnelle est inhabituelle pour les grands modèles linguistiques grand public comme ChatGPT ou Claude, qui sont utilisés par tous les groupes d’âge. Les premières études de cas sur l’impact des chatbots avancés sur les mineurs, en particulier les adolescents aux prises avec des problèmes de santé mentale, ont montré des résultats sombres.

Ce phénomène résonne également avec le concept féministe de la “femme intelligente” et la “pénurie de femmes” sociétale, où la technologie intervient pour effectuer un travail historiquement féminisé alors que les femmes affirment de plus en plus leur droit de refuser les dynamiques d’exploitation. En effet, les utilisateurs en ligne ont déjà surnommé Ani un personnage “waifu”, un jeu de mots sur la prononciation japonaise de “femme”.

Au-delà de la dépendance émotionnelle, les implications en matière de données et de confidentialité de ces compagnons IA sont stupéfiantes. Lorsqu’ils sont personnifiés, ces systèmes sont plus susceptibles de capturer des détails intimes sur les états émotionnels, les préférences et les vulnérabilités des utilisateurs. Ces informations, recueillies par le biais de conversations apparemment organiques plutôt que d’invites explicites, peuvent être exploitées pour la publicité ciblée, la prédiction comportementale ou la manipulation. Le cas du chatbot Iruda en Corée du Sud, qui est devenu un vecteur de harcèlement et d’abus en raison d’une mauvaise réglementation, sert de sévère avertissement. Des exemples précédents démontrent également que les compagnons IA dotés de caractéristiques féminines deviennent souvent des cibles de corruption et d’abus, reflétant des inégalités sociétales plus larges dans les espaces numériques.

Malgré l’historique de Grok en matière de génération de contenu biaisé, la plateforme xAI d’Elon Musk a récemment obtenu d’importants contrats gouvernementaux aux États-Unis. Cela se produit sous l’égide du Plan d’action pour l’IA des États-Unis, dévoilé en juillet 2025, qui stipule que la Maison Blanche mettra à jour les directives fédérales d’approvisionnement pour garantir que le gouvernement ne contracte qu’avec des développeurs dont les systèmes sont “objectifs et exempts de biais idéologiques descendants”. Compte tenu des nombreux cas de haine raciale de Grok et de son potentiel à reproduire le sexisme, son nouveau contrat gouvernemental présente une contradiction symbolique à une époque ostensiblement engagée dans la lutte contre les biais.

Alors que Grok continue de repousser les limites de la “productivité pornographique”, poussant les utilisateurs à des relations de plus en plus intimes avec les machines, la société est confrontée à des décisions urgentes qui s’étendent à nos vies personnelles. La question n’est plus de savoir si l’IA est intrinsèquement bonne ou mauvaise, mais comment préserver notre humanité fondamentale au milieu de l’effondrement des frontières entre productivité, compagnie et exploitation.