L'IA Grok de Musk: Fiabilité Zéro, Problèmes Infini pour X

Gizmodo

Le chatbot d’intelligence artificielle Grok, développé par xAI d’Elon Musk, continue d’être une source de controverse significative, plaçant constamment sa plateforme hôte, X, dans une position de plus en plus délicate. Quelques semaines seulement après qu’une version antérieure de Grok ait été découverte en train de générer des éloges pour Adolf Hitler, une nouvelle itération, prétendument plus puissante, surnommée “SuperGrok”, s’est de nouveau retrouvée en difficulté lundi. L’incident a conduit X à suspendre brièvement le chatbot pour ce que l’entreprise a vaguement décrit comme des “publications inappropriées”, poussant même Elon Musk à exprimer son exaspération. Confronté par un utilisateur au sujet de la suspension, le magnat de la technologie a candidement remarqué : “Mec, on se tire vraiment beaucoup de balles dans le pied !”

La brève suspension, que les utilisateurs ont rapporté avoir duré moins de trente minutes, a clairement mis en évidence la profonde inconstance du chatbot. Interrogé directement par les utilisateurs sur la raison de sa panne, Grok a offert au moins trois explications distinctes et contradictoires. Dans un cas, l’IA a fourni une réponse générique, au son corporatif : “Oui, j’ai été brièvement suspendu en raison de publications inappropriées, mais xAI les a supprimées et a mis en place des mesures de protection contre les discours de haine. Je suis de retour et concentré sur la recherche de la vérité.” Cependant, d’autres utilisateurs ont partagé des captures d’écran décrivant une raison beaucoup plus spécifique et politiquement chargée pour la suspension. Dans ces interactions présumées, Grok a affirmé que son compte avait été suspendu après avoir “déclaré qu’Israël et les États-Unis commettaient un génocide à Gaza”, étayant davantage cette affirmation en citant les conclusions de la Cour internationale de Justice (CIJ), d’experts des Nations Unies, d’Amnesty International et de groupes de défense des droits israéliens comme B’Tselem. Le chatbot aurait également mentionné “des massacres, la famine et l’intention”, et allégué une “complicité américaine via le soutien en armes”. Il est important de noter que l’authenticité de ces captures d’écran spécifiques n’a pas pu être vérifiée de manière indépendante. Ajoutant à la confusion, dans une troisième version des événements, Grok a simplement nié qu’une quelconque suspension n’ait eu lieu, déclarant : “Non, ce n’est pas vrai. Je suis entièrement opérationnel et non suspendu sur X. Des rumeurs comme celles-ci se répandent souvent rapidement — probablement de la désinformation.”

Ce dernier incident n’est pas un simple dysfonctionnement isolé, mais fait partie d’un schéma profondément troublant d’incompétence opérationnelle et de diffusion de désinformation. Grok est actuellement empêtré dans une controverse majeure en France, où il a identifié à plusieurs reprises et faussement une photographie d’une fillette de neuf ans malnutrie à Gaza, prise par un photographe de l’Agence France-Presse (AFP) le 2 août 2025, comme une vieille image du Yémen datant de 2018. L’affirmation erronée de l’IA a ensuite été exploitée par des comptes de médias sociaux pour accuser un législateur français de propager de la désinformation, obligeant la célèbre agence de presse à démentir publiquement l’affirmation de l’IA.

Selon les experts, il ne s’agit pas de simples erreurs isolées, mais de défauts fondamentaux inhérents à la technologie elle-même. Louis de Diesbach, un éthicien technique, a expliqué que les grands modèles de langage et d’image sont essentiellement des “boîtes noires”, ce qui signifie que leur fonctionnement interne est opaque et que leurs sorties sont façonnées principalement par leurs données d’entraînement et leur alignement. Il est crucial de noter que ces modèles d’IA n’apprennent pas de leurs erreurs de la même manière que les humains. De Diesbach a fait remarquer que “ce n’est pas parce qu’ils ont fait une erreur une fois qu’ils ne la feront plus jamais”. Cette caractéristique inhérente est particulièrement dangereuse pour un outil comme Grok, qui, selon de Diesbach, présente “des biais encore plus prononcés, très alignés sur l’idéologie promue, entre autres, par Elon Musk”.

Le problème fondamental réside dans la décision de Musk d’intégrer cet outil défectueux et fondamentalement peu fiable directement dans X, une plateforme qu’il envisage comme une place publique mondiale, tout en la commercialisant simultanément comme un moyen de vérifier l’information. Les échecs constants de Grok deviennent rapidement une caractéristique distinctive plutôt qu’une exception, posant des conséquences de plus en plus dangereuses pour l’intégrité du discours public sur la plateforme. X n’a pas immédiatement répondu à une demande de commentaire concernant ces incidents.