Futur de l'IA : Industrie, Académie, Gouvernement unis pour la Science

Datanami

La conférence TPC25 du Trillion Parameter Consortium s’est récemment tenue à San Jose, en Californie, réunissant des leaders de l’industrie, du monde universitaire et du gouvernement pour discuter de l’avenir de l’IA, en particulier de son application dans le calcul scientifique et technique. Bien qu’une grande partie des progrès récents de l’IA ait été tirée par de grandes entreprises technologiques privées, la conférence a mis en lumière un effort de collaboration pour exploiter ces avancées au service d’une découverte scientifique plus large, au bénéfice des États-Unis et de l’humanité.

Une table ronde, tenue le 30 juillet et animée par Karthik Duraisamy de l’Université du Michigan, a exploré comment diverses parties prenantes peuvent collaborer pour tirer parti de l’IA en vue de percées scientifiques. Les panélistes comprenaient des représentants du Département de l’Énergie (DOE), un développeur de plateformes informatiques quantiques, un fournisseur de solutions de gestion de données, la National Science Foundation (NSF) et Intel Labs.

Hal Finkel, directeur de la division de recherche et de partenariats en science computationnelle du DOE, a souligné l’engagement profond et de longue date du département envers l’IA. « Toutes les composantes du DOE ont un intérêt critique pour l’IA », a déclaré Finkel, notant des investissements significatifs dans ce domaine. Il a détaillé comment le DOE explore l’IA pour accélérer la productivité scientifique dans diverses disciplines, de l’énergie de fusion et des supraconducteurs à la robotique avancée et à la photonique. Finkel a souligné la vaste expertise du DOE en supercalcul, y compris les systèmes exascalaires dans les laboratoires nationaux, et leurs investissements dans les bancs d’essai d’IA et les technologies émergentes comme le calcul neuromorphique, qui promet une plus grande efficacité énergétique pour les applications d’IA de périphérie et les systèmes expérimentaux embarqués.

Vishal Shrotriya, cadre supérieur en développement commercial chez Quantinuum, un développeur de plateformes informatiques quantiques, a imaginé un avenir où les ordinateurs quantiques, intégrés aux algorithmes d’IA, s’attaqueraient à des problèmes de calcul complexes en science des matériaux, en physique et en chimie. Shrotriya a suggéré que les ordinateurs quantiques pourraient révolutionner la science moléculaire en permettant des simulations précises de petites molécules et la génération de nouvelles données synthétiques. Ces données synthétiques pourraient ensuite être réintroduites dans les modèles d’IA, créant une puissante boucle de rétroaction pour accélérer la découverte et l’innovation scientifiques, en particulier dans des domaines comme le développement de médicaments, allant au-delà des méthodes d’essais et erreurs pour des calculs précis des interactions moléculaires.

Molly Presley, responsable du marketing mondial chez Hammerspace, a souligné le rôle critique des données dans l’écosystème de l’IA. Elle a fait remarquer que si les données sont essentielles, leur distribution et leur accessibilité sont inégales. Hammerspace vise à combler le fossé entre la compréhension humaine des données et leur manifestation physique, facilitant un accès plus large. Presley a insisté sur l’importance des normes industrielles, en particulier pour l’accès aux données et la définition des métadonnées. Elle a noté qu’un thème récurrent dans son podcast « Data Unchained » est le manque de métadonnées standardisées dans différents domaines scientifiques, tels que la génomique, le calcul haute performance (HPC) et les services financiers. Presley a suggéré que la communauté informatique, comme celle de TPC25, est la mieux placée pour relever ce défi afin de garantir que les métadonnées soient standardisées et consultables à travers les flux de travail et les emplacements.

Katie Antypas, directrice de l’Office of Advanced Cyber Infrastructure de la National Science Foundation (NSF) et employée du Lawrence Berkeley National Lab, a souligné le développement de la main-d’œuvre comme un défi important. Elle a insisté sur la nécessité d’investissements de la part des partenariats industriels et du gouvernement fédéral pour former la prochaine génération de talents en IA. Antypas a désigné le projet National Artificial Intelligence Research Resource (NAIRR) comme une initiative clé dans cet effort, garantissant que les chercheurs à travers le pays et dans tous les domaines aient accès à des ressources critiques en IA, favorisant un écosystème d’innovation en IA sain au-delà des plus grandes entreprises technologiques.

Pradeep Dubey, Intel Senior Fellow chez Intel Labs et directeur du Parallel Computing Lab, a discuté de plusieurs défis au sein de la pile d’IA. Il a identifié un conflit fondamental au niveau algorithmique : développer des modèles qui sont à la fois très performants et dignes de confiance. Dubey a également abordé la question de l’« hallucination » dans les modèles d’IA, suggérant qu’il ne s’agit pas d’un bug mais d’une caractéristique inhérente qui contribue aux capacités actuelles de l’IA. Il a également noté le défi de rendre l’IA accessible aux non-codeurs qui préfèrent des environnements de programmation de haut niveau comme MATLAB, plutôt que d’être confinés aux interfaces de programmation GPU de bas niveau.

Cependant, le problème le plus pressant, un thème récurrent à TPC25, était la pénurie d’électricité imminente. Dubey a averti que les énormes demandes d’énergie pour faire fonctionner de grandes usines d’IA pourraient submerger les ressources disponibles. Il a souligné qu’une partie significative de l’énergie dans les grands systèmes d’IA (30-40 %, pouvant atteindre 70-80 %) est consommée par le mouvement des données plutôt que par le calcul, ce qui entraîne une utilisation inefficace de l’énergie.

Relever ces défis, des complexités algorithmiques au développement de la main-d’œuvre, en passant par la normalisation des données et la consommation d’énergie, est crucial pour que la communauté informatique puisse exploiter pleinement le potentiel de l’IA et faire progresser la découverte scientifique. Comme l’a conclu Hal Finkel du DOE, un intérêt large et agrégé et des efforts communautaires, facilitant la collaboration et la compréhension entre toutes les parties prenantes – gouvernement, laboratoires nationaux, industrie et universités – sont essentiels pour cet avenir partagé de l’IA.