L'IA s'Auto-Améliore : Vision, Risques et Impact Futur de Meta
Mark Zuckerberg a récemment exposé une vision audacieuse pour Meta : atteindre une intelligence artificielle qui surpasse l’intellect humain. Sa stratégie repose sur deux éléments cruciaux : attirer les meilleurs talents humains, avec des offres de neuf chiffres pour les chercheurs des Meta Superintelligence Labs, et, surtout, développer des systèmes d’IA auto-améliorants capables de se propulser à des niveaux de performance toujours plus élevés.
Le concept d’auto-amélioration de l’IA la distingue des autres technologies révolutionnaires. Contrairement à CRISPR, qui ne peut pas affiner sa propre cible ADN, ou aux réacteurs à fusion, qui ne peuvent pas concevoir indépendamment des voies vers la viabilité commerciale, les grands modèles de langage (LLM) démontrent la capacité d’optimiser les puces informatiques sur lesquelles ils fonctionnent, d’entraîner efficacement d’autres LLM, et même de générer des idées novatrices pour la recherche en IA. En effet, les progrès dans ces domaines sont déjà évidents.
Zuckerberg envisage un avenir où de telles avancées libéreront l’humanité des tâches mondaines, permettant aux individus de poursuivre leurs objectifs les plus élevés aux côtés de brillants compagnons artificiels hyper-efficaces. Cependant, cette auto-amélioration comporte également des risques inhérents, comme l’a souligné Chris Painter, directeur des politiques de l’organisation à but non lucratif de recherche sur l’IA METR. Si l’IA accélère rapidement ses propres capacités, avertit Painter, elle pourrait rapidement devenir plus habile en piratage, en conception d’armes et en manipulation de personnes. Certains chercheurs postulent même que cette boucle de rétroaction positive pourrait culminer en une “explosion d’intelligence”, propulsant l’IA bien au-delà de la compréhension humaine. Pourtant, il n’est pas nécessaire d’adopter une perspective pessimiste pour reconnaître les graves implications de l’IA auto-améliorante. Les principaux développeurs d’IA comme OpenAI, Anthropic et Google intègrent tous la recherche automatisée sur l’IA dans leurs cadres de sécurité, la classant aux côtés de risques plus reconnus tels que les armes chimiques et la cybersécurité. Jeff Clune, professeur d’informatique à l’Université de la Colombie-Britannique et conseiller principal en recherche chez Google DeepMind, souligne que cette voie représente la “voie la plus rapide vers une IA puissante” et est sans doute “la chose la plus importante à laquelle nous devrions penser”. Inversement, Clune souligne également les immenses avantages potentiels : l’ingéniosité humaine seule pourrait ne pas concevoir les innovations nécessaires pour que l’IA s’attaque finalement à des défis monumentaux comme le cancer et le changement climatique.
Pour l’instant, l’ingéniosité humaine reste le principal moteur du progrès de l’IA, comme en témoignent les investissements substantiels de Meta pour attirer des chercheurs. Néanmoins, l’IA contribue de plus en plus à sa propre évolution de plusieurs manières clés.
L’une des contributions les plus immédiates et les plus répandues des LLM au développement de l’IA est l’amélioration de la productivité, notamment par l’assistance au codage. Des outils tels que Claude Code et Cursor sont largement adoptés dans l’industrie de l’IA. Le PDG de Google, Sundar Pichai, a noté en octobre 2024 qu’un quart du nouveau code de l’entreprise était généré par l’IA, et Anthropic a documenté une utilisation interne étendue de Claude Code par ses employés. La prémisse est simple : des ingénieurs plus productifs peuvent concevoir, tester et déployer de nouveaux systèmes d’IA plus rapidement. Cependant, le véritable gain de productivité reste discutable. Une étude récente de METR a révélé que les développeurs expérimentés travaillant sur de grandes bases de code prenaient environ 20 % plus de temps pour accomplir des tâches lorsqu’ils utilisaient des assistants de codage IA, bien qu’ils se sentent subjectivement plus efficaces. Cela suggère la nécessité d’une évaluation plus rigoureuse au sein des principaux laboratoires d’IA pour déterminer les avantages réels.
Au-delà de l’amélioration de la productivité, l’IA s’avère essentielle pour optimiser sa propre infrastructure sous-jacente. L’entraînement des LLM est notoirement lent, les modèles de raisonnement complexes prenant parfois des minutes pour générer une seule réponse – un goulot d’étranglement important pour le développement. Azalia Mirhoseini, professeure adjointe d’informatique à l’Université de Stanford et scientifique principale chez Google DeepMind, déclare : “Si nous pouvons faire fonctionner l’IA plus rapidement, nous pouvons innover davantage.” À cette fin, Mirhoseini et ses collaborateurs de Google ont développé en 2021 un système d’IA capable d’optimiser le placement des composants de puces informatiques pour l’efficacité, un design que Google a depuis intégré dans plusieurs générations de ses puces IA personnalisées. Plus récemment, Mirhoseini a appliqué les LLM à l’écriture de “noyaux” (kernels), des fonctions de bas niveau qui régissent les opérations des puces comme la multiplication matricielle, constatant que même les LLM à usage général peuvent générer des noyaux surpassant les versions conçues par l’homme. Ailleurs chez Google, le système AlphaEvolve utilise le LLM Gemini pour concevoir et affiner itérativement des algorithmes pour optimiser diverses parties de l’infrastructure LLM de Google. Ce système a produit des résultats tangibles, notamment une économie de 0,7 % des ressources informatiques de Google pour les centres de données, des améliorations aux conceptions de puces personnalisées et une accélération de 1 % du temps d’entraînement de Gemini. Bien que cela semble mineur, ces pourcentages se traduisent par des économies substantielles de temps, d’argent et d’énergie pour une entreprise de l’envergure de Google, avec un potentiel de gains encore plus importants si appliqués plus largement.
Un autre domaine critique d’auto-amélioration de l’IA réside dans l’automatisation du processus d’entraînement. Les LLM exigent de vastes quantités de données, ce qui rend l’entraînement coûteux à chaque étape. Dans des domaines spécialisés, les données du monde réel peuvent être rares. Des techniques comme l’apprentissage par renforcement avec rétroaction humaine, où les humains évaluent les réponses des LLM pour affiner les modèles, sont efficaces mais lentes et coûteuses. Les LLM comblent de plus en plus ces lacunes. Avec suffisamment d’exemples, ils peuvent générer des données synthétiques plausibles pour les domaines où les données réelles font défaut. Ils peuvent également servir de “juges” dans l’apprentissage par renforcement, évaluant eux-mêmes les sorties du modèle – un principe fondamental du cadre influent d’“IA Constitutionnelle” d’Anthropic, où un LLM aide à en entraîner un autre à être moins nuisible. Pour les agents IA, qui doivent exécuter des plans en plusieurs étapes, les exemples de réussite de tâches sont rares. Mirhoseini et ses collègues de Stanford ont été les pionniers d’une technique où un agent LLM génère un plan étape par étape, un juge LLM évalue la validité de chaque étape, et un nouvel agent LLM est ensuite entraîné sur ces étapes affinées. Cette approche supprime efficacement les limitations de données, permettant aux modèles de générer des expériences d’entraînement virtuellement illimitées.
De plus, bien que l’architecture centrale des LLM actuels – le transformeur, proposé par des chercheurs humains en 2017 – reste conçue par l’homme, l’émergence des agents LLM a ouvert une frontière de conception entièrement nouvelle. Les agents nécessitent des outils pour interagir avec le monde extérieur et des instructions sur leur utilisation, rendant l’optimisation de ces éléments cruciale pour l’efficacité. Clune note que ce domaine offre des “fruits à portée de main” pour l’IA, car les humains n’ont pas encore exploré toutes les possibilités de manière exhaustive. En collaboration avec des chercheurs de Sakana AI, Clune a développé la “Machine Darwin Gödel”, un agent LLM capable de modifier itérativement ses propres invites, outils et code pour améliorer les performances de ses tâches. Ce système a non seulement amélioré ses scores par auto-modification, mais a également découvert des modifications inédites que sa version initiale n’aurait pas pu concevoir, entrant dans une véritable boucle d’auto-amélioration.
Enfin, la forme la plus ambitieuse d’auto-amélioration de l’IA implique peut-être de faire progresser la recherche sur l’IA elle-même. De nombreux experts soulignent le “goût de la recherche” – la capacité des meilleurs scientifiques à identifier de nouvelles questions et directions prometteuses – comme un défi unique pour l’IA. Cependant, Clune estime que ce défi pourrait être surestimé. Lui et les chercheurs de Sakana AI développent un système de bout en bout appelé le “Scientifique IA”. Ce système parcourt de manière autonome la littérature scientifique, formule ses propres questions de recherche, mène des expériences et rédige ses conclusions. Un article qu’il a rédigé plus tôt cette année, détaillant une nouvelle stratégie d’entraînement de réseaux neuronaux, a été soumis anonymement à un atelier de la Conférence Internationale sur l’Apprentissage Automatique (ICML) et accepté par les évaluateurs, bien que la stratégie n’ait finalement pas fonctionné. Dans un autre cas, le Scientifique IA a conçu une idée de recherche qui a ensuite été proposée indépendamment par un chercheur humain, suscitant un intérêt significatif. Clune compare ce moment au “moment GPT-1 du Scientifique IA”, prédisant que d’ici quelques années, il publiera des articles dans les meilleures conférences et revues à comité de lecture, réalisant des découvertes scientifiques originales.
Avec un tel enthousiasme pour l’auto-amélioration de l’IA, il semble probable que les contributions de l’IA à son propre développement ne feront que s’accélérer. La vision de Mark Zuckerberg suggère que des modèles superintelligents, surpassant les capacités humaines dans de nombreux domaines, sont imminents. En réalité, cependant, l’impact total de l’IA auto-améliorante reste incertain. Bien que l’AlphaEvolve de Google ait accéléré l’entraînement de Gemini de 1 %, cette boucle de rétroaction est encore “très lente”, selon Matej Balog, le chef de projet. L’entraînement d’un modèle comme Gemini prend un temps considérable, ce qui signifie que le “cycle vertueux” ne fait que commencer.
Les partisans de la superintelligence soutiennent que si chaque version subséquente de Gemini accélère encore son propre entraînement, ces améliorations se cumuleront, et des générations plus capables réaliseront des accélérations encore plus grandes, conduisant inévitablement à une explosion d’intelligence. Cette perspective, cependant, néglige souvent le principe selon lequel l’innovation a tendance à devenir plus difficile avec le temps. Au début de tout domaine scientifique, les découvertes sont faciles. Mais à mesure que l’apprentissage profond mûrit, chaque amélioration incrémentale peut exiger beaucoup plus d’efforts de la part des humains et de leurs collaborateurs IA. Il est concevable qu’au moment où les systèmes d’IA atteindront des capacités de recherche de niveau humain, les avancées les plus simples auront déjà été réalisées.
Déterminer l’impact réel de l’auto-amélioration de l’IA est donc un défi redoutable, aggravé par le fait que les systèmes d’IA les plus avancés sont généralement la propriété des entreprises d’IA de pointe, ce qui rend la mesure externe difficile. Néanmoins, les chercheurs externes font des efforts. METR, par exemple, suit le rythme général du développement de l’IA en mesurant le temps qu’il faut aux humains pour accomplir des tâches que les systèmes d’IA de pointe peuvent effectuer de manière indépendante. Leurs découvertes sont frappantes : depuis la sortie de GPT-2 en 2019, la complexité des tâches que l’IA peut accomplir de manière indépendante a doublé tous les sept mois. Depuis 2024, ce temps de doublement est passé à seulement quatre mois, suggérant fortement une accélération du progrès de l’IA. Bien que des facteurs tels que l’augmentation des investissements dans les chercheurs et le matériel y contribuent, il est tout à fait plausible que l’auto-amélioration de l’IA joue également un rôle important. Tom Davidson, le chercheur de Forethought, anticipe une période de progrès accéléré de l’IA, au moins pour un temps. Le travail de METR indique que l’effet de “fruit à portée de main” n’entrave pas actuellement les chercheurs humains, ou que l’augmentation des investissements compense efficacement tout ralentissement. Si l’IA stimule nettement la productivité des chercheurs, ou même prend en charge une partie de la recherche elle-même, cet équilibre se déplacera indéniablement vers un progrès accéléré. La question critique, conclut Davidson, est “combien de temps cela dure”.