TPC25 : Agents IA et Super Scientifiques Redéfinissent l'Avenir de la Science

Datanami

La récente conférence du Consortium du Milliard de Paramètres, TPC25, tenue à San Jose avec 350 participants, a offert un aperçu convaincant du futur rôle de l’IA dans la découverte scientifique. Bien que l’étendue complète de l’impact de l’IA reste incertaine, la conférence a mis en lumière des perspectives évolutives et de nouvelles avenues prometteuses.

Rick Stevens, un des principaux membres du Consortium du Milliard de Paramètres et chercheur au Laboratoire National d’Argonne, a présenté une vision fascinante : un seul scientifique habilité par 1 000 agents IA, chacun possédant une capacité intellectuelle équivalente à un QI humain de 140. Il a démontré les capacités immédiates des modèles d’IA actuels, racontant un cas où, à partir d’une simple image représentant des structures chimiques complexes et d’une brève invite, un modèle de recherche approfondie d’OpenAI a généré un article de synthèse personnalisé de 18 pages en seulement dix minutes. Stevens a souligné que de tels systèmes permettent des percées dans la compréhension et l’accessibilité des connaissances.

Il y a trois ans, lorsque Stevens et ses collègues d’institutions comme RIKEN et le Centre de Supercalcul de Barcelone ont fondé le Consortium du Milliard de Paramètres, la conviction dominante était que des modèles toujours plus grands, atteignant 20 à 30 billions de paramètres, seraient la clé pour débloquer des solutions aux grands défis scientifiques, tels que la liaison de la gravité et de la théorie quantique des champs ou la découverte de remèdes contre des maladies comme le cancer. Bien que les modèles d’IA aient effectivement augmenté en taille et en capacité, ils n’ont pas encore atteint ces nombres colossaux de paramètres. Cela a conduit à un réétalonnage des attentes, déplaçant l’accent des découvertes singulières bouleversantes vers des applications plus pragmatiques : accélérer le rythme du travail scientifique existant en transformant des scientifiques humains individuels en « super scientifiques ».

Satoshi Matsuoka, directeur du Centre RIKEN pour la Science Computationnelle (R-CCS), a articulé ce changement lors de sa session TPC25. Il a souligné que l’IA ne devrait pas être un simple « outil marginal », mais être intégrée « partout » dans les processus scientifiques. Matsuoka a noté que la trajectoire actuelle implique l’exploitation d’une nouvelle classe de modèles d’IA de raisonnement apparus au cours des six derniers mois, plutôt que de poursuivre uniquement des modèles plus grands entraînés sur des ensembles de données plus volumineux. Il a souligné le coût computationnel prohibitif de l’extension à 20 billions de paramètres, suggérant qu’un « ensemble de modèles », agissant comme des experts spécialisés avec une plus grande division du travail, serait une approche plus viable et efficace qu’un « grand modèle pour régner sur le monde ».

Ian Foster, directeur de la Division Science des Données et Apprentissage d’Argonne, a en outre souligné les progrès rapides des modèles de raisonnement. Il a présenté des résultats de référence montrant leur progression, passant de performances non meilleures qu’un doctorant humain en dehors de sa spécialité à un fonctionnement au niveau d’un doctorant utilisant la recherche Google. Foster a expliqué que ces modèles n’apprennent pas seulement des faits, mais acquièrent également la capacité de raisonner, ce qui leur permet de s’attaquer à des problèmes complexes. Il a proposé la création d’un « tissu d’action de pensée » – un cadre qui coordonnerait les agents IA pour gérer l’ensemble du processus scientifique, de la génération d’hypothèses et la mise en place d’expériences à leur exécution et leur analyse.

Si le potentiel d’une vague de productivité scientifique est immense, des défis importants subsistent. Foster a souligné la nécessité d’évaluer et d’améliorer rigoureusement les chaînes de raisonnement générées par les modèles d’IA et de mettre en œuvre des systèmes de contrôle robustes, en particulier compte tenu des investissements substantiels requis. Il a également soulevé une implication qui invite à la réflexion : bien que l’IA puisse accélérer la production scientifique, elle pourrait entraîner une réduction du besoin de scientifiques humains. Foster a observé que les augmentations historiques de la puissance de calcul n’ont pas augmenté proportionnellement le nombre de scientifiques, suggérant qu’une tendance similaire pourrait émerger où davantage de ressources seraient consacrées à de puissants systèmes d’IA, permettant à moins de chercheurs humains de s’attaquer à des problèmes de plus en plus complexes.

Malgré les obstacles comme l’atténuation des « hallucinations » de l’IA, la garantie de la sécurité des systèmes et la satisfaction des immenses demandes énergétiques des futurs centres de données, l’enthousiasme au sein de la communauté de l’IA pour la science reste élevé. L’émergence de modèles de raisonnement sophistiqués a maintenu l’excitation entourant le potentiel transformateur de l’IA. Comme l’a résumé Stevens, la question fondamentale de notre époque est de savoir comment l’humanité, en particulier les scientifiques et les universitaires, définira sa relation avec ce nouveau « moteur » qui convertit la puissance en travail cognitif. Cette relation et les objectifs d’un système aussi puissant sont des considérations cruciales pour l’avenir de la découverte scientifique.

TPC25 : Agents IA et Super Scientifiques Redéfinissent l'Avenir de la Science - OmegaNext Actualités IA