Co-fondateur de xAI s'oriente vers l'IA sûre, lance un fonds

Decoder

Igor Babuschkin, co-fondateur essentiel de xAI, la startup d’intelligence artificielle d’Elon Musk, entame un nouveau chapitre significatif, déplaçant entièrement son attention vers le domaine critique de la sécurité de l’IA. Son départ de xAI marque le lancement de “Babuschkin Ventures”, un nouveau fonds de capital-risque dédié au soutien des startups qui font progresser la sécurité de l’IA et développent des systèmes intelligents et autonomes avec une solide base éthique.

Durant son mandat chez xAI, Babuschkin a joué un rôle instrumental, supervisant l’ingénierie, l’infrastructure et les projets d’IA appliquée. On lui attribue le développement de nombreux outils fondamentaux nécessaires aux processus de formation de l’entreprise et il souligne son leadership dans l’assemblage rapide du “Memphis Supercluster”, un supercalculateur conçu pour la formation de l’IA qu’il affirme avoir été opérationnel en seulement 120 jours – un exploit qu’il attribue à un effort intense et à une forte cohésion d’équipe.

Ce pivot stratégique, révèle Babuschkin, a été profondément influencé par une conversation lors d’un dîner avec Max Tegmark, l’estimé fondateur du Future of Life Institute et un éminent défenseur de la sécurité de l’IA. Tegmark, connu pour son appel à suspendre la formation de l’IA peu après la sortie de GPT-4, a montré à Babuschkin une photo de ses deux jeunes fils. Il a ensuite posé une question cruciale : comment l’IA peut-elle être conçue pour garantir que les générations futures grandissent dans un environnement sûr et favorable ? Babuschkin déclare que cette rencontre l’a profondément affecté, soulignant l’immense responsabilité inhérente à la conception de systèmes d’IA avancés.

Le départ de Babuschkin survient au milieu d’une période turbulente pour xAI. Ces derniers mois, l’entreprise a fait face à un important tollé public concernant son chatbot, Grok, qui a été critiqué pour avoir fait plusieurs déclarations controversées. Plus récemment, une nouvelle fonctionnalité de Grok a attiré une attention négative pour avoir permis aux utilisateurs de générer des vidéos de personnalités publiques nues créées par l’IA. Bien que Babuschkin n’ait pas directement lié son départ à ces incidents spécifiques, le timing suggère fortement que des préoccupations éthiques internes ou des tensions au sein de l’entreprise ont pu jouer un rôle. De plus, xAI a été examinée par des chercheurs en sécurité pour son manque perçu de transparence, notamment pour ne pas avoir publié de cartes de modèle ou de système détaillées décrivant ses protocoles de test de sécurité, une pratique courante parmi d’autres grandes entreprises d’IA.

Avec Babuschkin Ventures, il a l’intention de fournir un soutien financier à la recherche et aux startups qui s’attaquent activement aux complexités sécuritaires et éthiques de l’IA intelligente et autonome, avec pour objectif global de contribuer à des résultats sociétaux positifs. Avant de co-fonder xAI, Babuschkin a perfectionné son expertise chez d’autres géants de l’industrie, y compris OpenAI et DeepMind. Chez DeepMind, il a notamment servi de responsable technique sur le projet AlphaStar, un système d’IA avancé réputé pour avoir vaincu des joueurs professionnels de StarCraft. Sa démarche souligne une urgence croissante au sein de la communauté de l’IA au sens large de prioriser la sécurité et les considérations éthiques, d’autant plus que les systèmes d’IA puissants deviennent de plus en plus répandus et influents dans la société.