Crise de l'IA : Le journalisme s'effondre, la vérité vacille
L’intelligence artificielle assimile rapidement de vastes quantités de contenu journalistique, un peu comme les humains : pour construire une compréhension globale du monde, cultiver la pensée critique, distinguer le vrai du faux, affiner les capacités d’écriture et condenser l’histoire et le contexte sous des formes accessibles. Pourtant, une question cruciale se profile : que devient l’IA lorsque les institutions journalistiques mêmes sur lesquelles elle repose commencent à vaciller ? Sur quelle base de vérité vérifiée l’IA répondra-t-elle à des questions complexes, rédigera-t-elle des communications ou aidera-t-elle à des tâches complexes, si cette fondation s’effondre ? Bien que les sonnettes d’alarme pour le journalisme aient retenti pendant des décennies, le profond changement dans la façon dont nous découvrons l’information, souvent appelé la “fin de la recherche”, signale maintenant un coup potentiellement fatal. Ce paysage en évolution pose un défi significatif pour l’IA, et pour l’humanité alors que nous nous efforçons de naviguer dans un monde de plus en plus alambiqué.
Dans notre hâte d’intégrer l’IA générative dans presque toutes les facettes de nos vies, nous avons largement négligé une prémisse fondamentale : l’IA ne peut pas fonctionner efficacement sans une base fiable de faits vérifiés. Actuellement, ce socle factuel essentiel est méticuleusement construit et maintenu par ce que l’on appelle souvent le “journalisme traditionnel” — celui qui est étayé par une vérification rigoureuse des faits et une supervision éditoriale. Alors que l’IA continue de perturber les paradigmes établis de découverte d’informations, de monétisation des médias et de comportements de consommation d’actualités, elle sape involontairement l’industrie même qui lui fournit les faits vérifiés dont elle dépend si crucialement. Tout comme une société démocratique est en difficulté sans un journalisme objectif, l’intelligence artificielle l’est aussi.
Des recherches récentes d’Apple soulignent cette vulnérabilité, observant qu’“il n’en faut pas beaucoup pour que l’IA générative tombe dans un ‘effondrement complet de la précision’.” L’étude indique en outre que les modèles d’IA générative manquent fréquemment de solides capacités de raisonnement logique, échouant souvent à fonctionner efficacement au-delà d’un certain seuil de complexité. On pourrait considérer, par exemple, un article d’analyse détaillé, tel que l’exploration de l’autocratie par Andrew Marantz dans The New Yorker, qui tisse avec maestria des fils historiques disparates pour éclairer les événements contemporains. Il est difficile d’imaginer l’IA reproduisant une telle perspicacité nuancée, risquant un court-circuit avant de pouvoir distiller les points saillants et percutants qui définissent une analyse humaine aussi profonde. Lorsqu’on la pousse à “penser” trop profondément, l’IA a démontré une propension à tomber en panne.
Des conclusions encore plus préoccupantes émergent d’un rapport de la BBC, qui a conclu que l’IA a du mal à résumer précisément le contenu des actualités. Lors d’une expérience, ChatGPT, Copilot, Gemini et Perplexity ont été chargés de résumer 100 articles de presse, des journalistes experts évaluant ensuite chaque résultat. Le rapport a révélé que, outre le fait de contenir des inexactitudes factuelles flagrantes, les chatbots “luttaient souvent pour différencier l’opinion du fait, éditorialisaient, et ne parvenaient souvent pas à inclure le contexte essentiel”. De manière alarmante, près d’un cinquième — un plein 19 % — de ces résumés contenait de faux faits ou des citations déformées.
Des études supplémentaires corroborent ces problèmes systémiques. Des recherches du MIT Sloan ont mis en évidence la tendance des outils d’IA à fabriquer des citations et à renforcer les biais de genre et raciaux existants. Parallèlement, une analyse dans Fast Company suggère que le standard “suffisamment bon” souvent accepté pour le journalisme piloté par l’IA est toléré principalement en raison des revenus générés par ces outils.
Cela nous amène à la raison moins altruiste de la consommation de contenu journalistique par l’IA : le gain financier. Il est crucial de noter qu’aucun des revenus substantiels générés par l’IA n’est actuellement réinvesti dans les institutions journalistiques qui sous-tendent toute cette expérience technologique. Que deviendra alors notre société lorsque le pilier central d’une presse libre et précise s’effondrera sous le poids d’une technologie qui l’a involontairement consommée et sapée ? Ceux qui guident le développement de l’IA doivent reconnaître et soutenir activement la valeur intrinsèque du reportage vérifié, plus que jamais, pour assurer sa survie continue et, par extension, la fiabilité de l’IA elle-même.