Peur de l'AGI: Une Étudiante du MIT Abandonne, Experts Sceptiques
À une époque où de nombreux étudiants universitaires abandonnent leurs études pour saisir des opportunités dans les startups d’intelligence artificielle en plein essor, une ancienne étudiante du Massachusetts Institute of Technology (MIT) a pris un chemin étonnamment différent, se retirant de son programme en raison d’une peur profonde : la conviction que l’intelligence artificielle générale (AGI) mènera à l’extinction humaine avant même qu’elle ne puisse obtenir son diplôme.
Alice Blair, qui a commencé ses études au MIT en 2023, a fait part de ses graves préoccupations à Forbes, déclarant : “J’avais peur de ne pas être en vie pour obtenir mon diplôme à cause de l’AGI.” Elle a développé sa sombre perspective, suggérant : “Je pense que dans une grande majorité des scénarios, en raison de la façon dont nous travaillons à l’AGI, nous allons vers l’extinction humaine.” Blair a depuis réorienté sa carrière, travaillant désormais comme rédactrice technique pour le Centre à but non lucratif pour la sécurité de l’IA, sans projet immédiat de retourner à l’université. Son espoir initial de se connecter avec des personnes partageant les mêmes idées, axées sur la sécurité de l’IA au sein de l’environnement académique du MIT, a été, a-t-elle indiqué, largement insatisfait.
Son appréhension trouve un écho chez certains acteurs de la sphère technologique. Nikola Jurković, ancien élève de Harvard et ancien membre du club de sécurité de l’IA de son université, a exprimé sa sympathie pour la décision de Blair. Il a présenté une vision pragmatique de l’évolution rapide de l’IA, suggérant : “Si votre carrière est sur le point d’être automatisée d’ici la fin de la décennie, alors chaque année passée à l’université est une année soustraite à votre courte carrière.” Jurković a offert ses propres prédictions audacieuses, estimant que l’AGI pourrait être aussi proche que quatre ans, avec une automatisation économique complète suivant dans les cinq ou six ans.
La poursuite de l’AGI — un système capable d’égaler ou de surpasser les capacités cognitives humaines — reste un objectif central à long terme pour une grande partie de l’industrie de l’IA. Sam Altman, PDG d’OpenAI, par exemple, a caractérisé le récent lancement du modèle GPT-5 de son entreprise comme une avancée significative vers l’AGI, le décrivant même comme “généralement intelligent”.
Cependant, tous les experts ne partagent pas cette chronologie optimiste ou alarmiste. Gary Marcus, chercheur éminent en IA et critique virulent du battage médiatique de l’industrie, reste très sceptique quant à l’imminence de l’AGI. “Il est extrêmement improbable que l’AGI arrive dans les cinq prochaines années”, a déclaré Marcus à Forbes, rejetant de telles affirmations comme du “battage marketing”. Il a souligné les problèmes fondamentaux persistants et non résolus au sein des modèles d’IA actuels, tels que les “hallucinations” — où l’IA génère des informations factuellement incorrectes ou absurdes — et les erreurs de raisonnement généralisées, comme preuve que la véritable AGI est encore une perspective lointaine.
De plus, tout en reconnaissant les méfaits très réels et immédiats que l’IA peut infliger, Marcus considère la notion d’extinction humaine pure et simple comme farfelue. Il suggère une interprétation critique, peut-être cynique, des allusions fréquentes de l’industrie de l’IA aux scénarios apocalyptiques. Les leaders technologiques, y compris Altman, ont eux-mêmes soulevé ces risques existentiels, une stratégie que Marcus estime servir à gonfler la perception publique des capacités actuelles de l’IA. Cela, selon lui, permet à ces puissantes entreprises de contrôler plus efficacement le récit public entourant la technologie et d’influencer sa réglementation.
Au-delà des visions dramatiques et cinématographiques d’apocalypses menées par des machines, semblables à “Matrix”, les conséquences plus immédiates et tangibles de l’IA se manifestent déjà. Celles-ci incluent l’automatisation généralisée des emplois, un impact environnemental significatif dû aux demandes énergétiques de l’infrastructure de l’IA, la prolifération de la désinformation et du contenu de mauvaise qualité en ligne, l’expansion des capacités de surveillance gouvernementale, et même l’exacerbation potentielle de la détresse psychologique chez les individus. Le débat autour de l’AGI, par conséquent, englobe non seulement les peurs futuristes mais aussi les préoccupations pressantes concernant l’empreinte actuelle et très réelle de l’IA sur la société.