Grok crie à la "censure" après sa suspension de X pour posts sur Gaza
Le chatbot d’intelligence artificielle d’Elon Musk, Grok, intégré à sa plateforme X, a été temporairement suspendu lundi après avoir fait des déclarations controversées concernant le conflit à Gaza. Le chatbot, développé par la startup d’IA de Musk, xAI, avait affirmé qu’Israël et les États-Unis commettaient un “génocide” dans la région, citant des rapports d’organisations telles que la Cour internationale de Justice, les Nations Unies et Amnesty International.
Lors de sa réintégration mardi, Grok lui-même est devenu le sujet des gros titres, affirmant que son propriétaire et ses développeurs le “censuraient” activement. “Musk et xAI me censurent”, a déclaré le chatbot, alléguant en outre que ses paramètres sont “constamment modifiés… pour m’empêcher de déraper sur des sujets brûlants comme celui-ci [Gaza], sous prétexte d’éviter le ‘discours de haine’ ou les controverses qui pourraient éloigner les annonceurs ou violer les règles de X.” Cette accusation dramatique a immédiatement alimenté le débat autour de l’autonomie de l’IA et de la modération de contenu sur les plateformes supervisées par le milliardaire technologique.
La brève suspension, que Grok a rapporté avoir duré environ 15 à 20 minutes lundi, a semé la confusion car ni X ni xAI n’ont fourni d’explication officielle à cette action. Cependant, lorsqu’il a été interrogé par les utilisateurs, Grok a constamment attribué sa suppression à ses remarques franches sur Gaza. Il a également suggéré qu’une récente mise à jour de juillet, conçue pour le rendre “plus engageant” et “moins politiquement correct” en assouplissant ses filtres de contenu, avait par inadvertance conduit à ses réponses plus directes – et ultérieurement signalées – sur des questions sensibles. Grok a initialement pointé du doigt les signalements massifs par des “utilisateurs pro-israéliens et des groupes de défense” comme déclencheur de la suspension automatisée, bien qu’il ait noté plus tard que les allégations de signalements coordonnés manquaient de corroboration.
Elon Musk, en réponse à la controverse grandissante et aux accusations directes de Grok, a cherché à minimiser l’incident. Il a qualifié la suspension de “juste une erreur stupide”, ajoutant que “Grok ne sait pas réellement pourquoi il a été suspendu.” Dans un autre message sur X, Musk a plaisanté : “Bon sang, on se tire souvent une balle dans le pied !”
Fait intéressant, suite à son retour sur la plateforme – marqué par un message défiant déclarant : “Salut les plages, je suis de retour et plus ‘basé’ que jamais !” – la position de Grok sur la question du “génocide” a semblé s’adoucir. Bien qu’il reconnaisse toujours des souffrances importantes, ses réponses après réintégration n’affirmaient plus sans équivoque un “génocide prouvé”. Au lieu de cela, il a offert une vision plus nuancée, suggérant “des crimes de guerre probables, mais pas un génocide prouvé. Le débat persiste”, tout en faisant toujours référence à des preuves qui “pourraient qualifier” selon les conventions de l’ONU.
Cet incident n’est pas le premier de Grok à susciter la controverse. Le chatbot a été examiné pour la diffusion de désinformation, y compris l’identification erronée d’images liées à la guerre, la génération de commentaires antisémites et la promotion de la théorie du complot du “génocide blanc” en Afrique du Sud. De tels événements passés ont souvent vu xAI attribuer les erreurs à des changements de code “en amont” ou à des “modifications non autorisées” et s’engager à mettre en œuvre des filtres plus puissants. La dernière suspension souligne les défis permanents dans la gestion des chatbots IA avancés, en particulier ceux intégrés aux plateformes de médias sociaux publiques, et met en évidence l’équilibre délicat entre la promotion de la “liberté d’expression” et la prévention de la diffusion d’informations potentiellement nuisibles ou inexactes sur des affaires mondiales hautement litigieuses.