Le nouveau terme péjoratif anti-IA : "Clanker", reflet du dédain public

Fastcompany

La présence grandissante de l’intelligence artificielle dans la vie quotidienne a suscité un nouveau phénomène linguistique : l’émergence de termes dérogatoires visant la technologie et ses utilisateurs. Parmi ceux-ci, « clanker », une insulte tirée de l’univers de Star Wars, a connu une résurgence notable, les données de Google Trends indiquant un pic significatif des recherches pour ce terme début juin. Ce renouveau numérique reflète un courant sous-jacent croissant de scepticisme public, et parfois un dédain pur et simple, envers l’IA.

Les plateformes en ligne, notamment TikTok et X, sont devenues un terrain fertile pour ce nouveau lexique. Un utilisateur de TikTok a imaginé avec humour un « rassemblement de clankers » en 2088, tandis qu’un autre utilisateur de X, répondant à une vidéo du robot Optimus d’Elon Musk servant du pop-corn, a plaisanté : « Gardez vos mains de clanker huileuses et sans âme loin de ma délicieuse nourriture humaine. » Le terme a même pénétré le discours politique. Le sénateur Ruben Gallego (D-AZ) a récemment utilisé cette insulte sur X, annonçant un nouveau projet de loi visant à garantir que les électeurs ne seraient pas obligés d’interagir avec un « clanker » en essayant de joindre un représentant humain. Cette adoption politique souligne à quel point ce sentiment résonne profondément auprès de segments de la population.

Au-delà de « clanker », une gamme d’autres péjoratifs fait surface, ciblant souvent des systèmes d’IA spécifiques ou leurs adeptes. Les discussions autour du chatbot Grok de xAI, par exemple, ont engendré des termes comme « Grokkers », « Groklins » et « Grocksuckers ». De même, sur TikTok, les individus perçus comme trop dépendants de ChatGPT ont été surnommés « sloppers ». Ces néologismes mettent en lumière une impulsion sociétale à catégoriser et, dans certains cas, à dénigrer ceux qui sont perçus comme trop étroitement alignés ou dépendants de l’intelligence artificielle.

Cette prolifération d’insultes liées à l’IA n’est pas seulement une tendance en ligne éphémère ; elle reflète un malaise sociétal plus profond. Selon le Pew Research Center, les préoccupations concernant l’IA chez les adultes américains se sont constamment intensifiées depuis 2021. Plus de la moitié des Américains, précisément 51 %, déclarent ressentir plus d’appréhension que d’enthousiasme concernant l’avancement rapide de la technologie. Leurs inquiétudes couvrent un large spectre, du potentiel de l’IA à remplacer les emplois humains au phénomène émergent de la dépendance aux chatbots. La création et la popularisation de ces termes dérogatoires peuvent être considérées comme une manifestation de ces anxiétés sous-jacentes, offrant un exutoire linguistique à la frustration et à la peur.

Cependant, l’adoption de tels termes n’est pas sans critiques. Certains observateurs soutiennent qu’adopter de nouvelles insultes, même celles dirigées contre des entités non humaines, peut être problématique, en particulier lorsqu’elles font involontairement écho à des insultes raciales existantes ou perpétuent des stéréotypes nuisibles. D’autres expriment une préoccupation plus personnelle, craignant que la vague actuelle de sentiment anti-IA ne conduise à de futurs regrets. Comme l’a fait remarquer avec justesse un utilisateur de X, ils ne voudraient pas faire face à un robot dans cinquante ans et devoir expliquer que « c’était une autre époque », suggérant une prise de conscience de la relation évolutive entre les humains et l’intelligence artificielle et de l’impact durable du langage que nous utilisons pour la définir.