IA et journalisme : la crise des faits vérifiés
Les systèmes d’intelligence artificielle s’intègrent rapidement dans notre quotidien, consommant souvent de vastes quantités de contenu journalistique à des fins remarquablement similaires aux efforts humains : développer une compréhension nuancée du monde, affiner la pensée critique, discerner le vrai du faux, améliorer les compétences en communication et contextualiser l’histoire. Pourtant, une question fondamentale se profile : qu’arrive-t-il à l’IA lorsque les institutions journalistiques mêmes dont elle dépend commencent à s’effondrer ? Sur quelle base de vérité vérifiée ces systèmes répondront-ils à nos questions, rédigeront-ils nos communications, ou même effectueront-ils des tâches complexes ? Si le déclin du journalisme traditionnel est une préoccupation depuis des décennies, l’avènement de l’IA générative, couplé à la potentielle “fin de la recherche” telle que nous la connaissons, ressemble désormais à une profonde menace existentielle. Ce changement a des implications critiques non seulement pour les capacités de l’IA, mais aussi pour la capacité de l’humanité à naviguer dans un monde de plus en plus complexe.
Dans notre hâte d’intégrer l’IA générative dans toutes les facettes de la société, nous risquons de négliger une dépendance cruciale : l’IA ne peut pas fonctionner efficacement sans une base fiable de faits vérifiés. Actuellement, cette fondation essentielle est méticuleusement construite et maintenue par ce que l’on appelle souvent le journalisme “traditionnel” – une industrie caractérisée par une vérification rigoureuse des faits et une supervision éditoriale. Paradoxalement, alors même que l’IA promet de révolutionner la recherche, la monétisation des médias et les habitudes de consommation d’informations, elle érode simultanément l’industrie même qui lui fournit le socle factuel dont elle dépend. Tout comme une société démocratique ne peut prospérer sans un journalisme objectif, les systèmes d’IA avancés ne le peuvent pas non plus.
Les preuves de la fragilité inhérente de l’IA face aux nuances de la vérité s’accumulent. Des recherches récentes d’Apple, par exemple, indiquent que l’IA générative peut facilement succomber à un “effondrement complet de la précision”. L’étude suggère que ces modèles manquent fréquemment de raisonnement logique robuste, ayant du mal à traiter efficacement les informations au-delà d’un certain seuil de complexité. On pourrait se demander comment une telle IA s’en sortirait en tentant l’analyse historique complexe vue dans l’article d’Andrew Marantz dans le New Yorker, qui relie des siècles de tendances autocratiques à la société américaine contemporaine. Le risque est que l’IA “court-circuite”, incapable de distiller les points nuancés et saillants qui donnent à un travail aussi profond son impact.
Un rapport encore plus préoccupant de la BBC corrobore ces limitations, révélant les difficultés significatives de l’IA à résumer les nouvelles avec précision. Lorsque des journalistes experts ont évalué les résumés de 100 articles de presse générés par les principaux modèles d’IA — ChatGPT, Copilot, Gemini et Perplexity —, les résultats ont été alarmants. Outre les inexactitudes factuelles flagrantes, les chatbots “avaient du mal à différencier l’opinion du fait, éditorialisaient et ne parvenaient souvent pas à inclure le contexte essentiel”. De manière troublante, près d’un cinquième — un pourcentage stupéfiant de 19 % — de ces résumés contenaient des faits erronés ou des citations déformées.
Ces problèmes ne sont pas des incidents isolés. Une étude du MIT Sloan a mis en évidence la propension des outils d’IA à fabriquer des citations et à renforcer les biais de genre et raciaux existants. De plus, l’impératif économique qui pousse à l’adoption de l’IA dans les médias conduit souvent à une acceptation troublante de standards “suffisamment bons” dans le journalisme basé sur l’IA, privilégiant la génération de revenus à l’intégrité factuelle.
Cela nous amène à la raison moins idéaliste et plus pragmatique pour laquelle l’IA a consommé voracement du contenu journalistique : le gain financier. Il est crucial de noter qu’aucun des revenus substantiels générés par l’utilisation de ce contenu par l’IA ne retourne financer les institutions journalistiques qui alimentent toute cette expérience. Quel sera alors le destin de notre société lorsque le pilier central d’une presse vraie et libre s’effondrera sous le poids de la technologie même qui l’a consommée de manière bâclée ? Pour que l’IA serve véritablement la société et maintienne son utilité, ses développeurs doivent reconnaître de toute urgence et investir une valeur réelle dans les reportages vérifiés afin d’assurer leur existence continue.