Groq: La startup de puces IA valorisée près de 6 milliards de dollars

Techcrunch

La startup de puces IA Groq serait sur le point de sécuriser une importante levée de fonds, approchant les 600 millions de dollars, ce qui propulserait sa valorisation à environ 6 milliards de dollars. Ce développement, rapporté par Bloomberg et confirmé par des sources familières avec les négociations, signifie un doublement de la valorisation de Groq en environ neuf mois, soulignant l’intense intérêt des investisseurs pour le marché spécialisé du matériel IA. La société de capital-risque Disruptive serait en tête de cet investissement, s’engageant à verser plus de 300 millions de dollars dans l’accord, bien que les termes ne soient pas encore finalisés et puissent encore changer.

Groq, fondée par d’anciens ingénieurs de Google, s’est taillé une niche dans l’industrie en plein essor des puces IA en développant une architecture unique appelée Unité de Traitement du Langage (LPU). Contrairement aux GPU (Unités de Traitement Graphique) à usage général qui dominent l’entraînement IA, les LPU de Groq sont spécifiquement conçues pour l’inférence IA – le processus d’exécution de modèles IA pré-entraînés pour générer des prédictions ou des réponses. Cette spécialisation permet à Groq d’atteindre des vitesses exceptionnellement élevées et une faible latence, particulièrement pour les grands modèles de langage (LLM). Par exemple, les LPU de Groq peuvent générer plus de 500 mots en environ une seconde, surpassant significativement les GPU de Nvidia qui prennent près de 10 secondes pour la même tâche. Certains benchmarks suggèrent même que le LPU de Groq peut être jusqu’à 9 à 18 fois plus rapide en termes de débit pour certaines tâches d’inférence LLM par rapport au GPU A100 de Nvidia, tout en étant plus économe en énergie.

L’orientation stratégique de l’entreprise vers l’inférence est un mouvement calculé sur un marché des puces IA en pleine phase de transformation. Alors que Nvidia reste dominant dans l’entraînement IA, la demande de solutions d’inférence haute performance et à faible latence croît rapidement, stimulée par l’adoption croissante de l’IA dans les applications en temps réel comme les chatbots, les véhicules autonomes et la robotique. Le marché global des puces IA devrait connaître une croissance substantielle, avec certaines prévisions indiquant qu’il pourrait atteindre 91,18 milliards de dollars d’ici 2025 et même dépasser 400 milliards de dollars d’ici 2030.

La stratégie de croissance de Groq comprend une expansion significative de ses capacités d’inférence IA à l’échelle mondiale et une diversification de ses offres de services. Un élément clé de cette expansion est le plan ambitieux de déployer plus de 100 000 LPU supplémentaires d’ici le premier trimestre 2025, avec un objectif encore plus agressif d’atteindre 2 millions d’unités d’ici la fin de 2025. Cela vise à positionner Groq comme un fournisseur de calcul d’inférence IA de premier plan, gérant potentiellement plus de la moitié des services d’inférence IA mondiaux.

Une réalisation récente notable pour Groq est un contrat rapporté de 1,5 milliard de dollars avec l’Arabie Saoudite pour établir le plus grand centre d’inférence IA du monde à Dammam. Cet accord devrait générer environ 500 millions de dollars de revenus en 2025 pour Groq et s’aligne sur l’initiative “AI Vision 2030” de l’Arabie Saoudite. Le partenariat inclurait également un investissement de 1,5 milliard de dollars pour étendre le déploiement des LPU de Groq, avec des plans pour plus de 100 000 unités d’ici 2025.

Groq a également opéré une transition vers un modèle “cloud-first” avec sa plateforme GroqCloud, offrant l’“Inférence en tant que Service” aux développeurs. Cette stratégie de tarification basée sur la consommation vise à générer de multiples flux de revenus et à démocratiser l’accès à l’IA haute performance. La société a acquis Definitive Intelligence en mars 2024 pour renforcer ses capacités cloud.

Malgré ses performances impressionnantes et ses mouvements stratégiques, Groq fait face à des défis. La valorisation élevée est basée sur d’importantes projections de revenus et sur la capacité de l’entreprise à faire évoluer sa technologie LPU. Bien que le LPU de Groq ait un coût initial plus élevé que certains GPU de Nvidia, il offre une efficacité de coût à long terme grâce à une consommation d’énergie et des coûts opérationnels inférieurs. Cependant, les puces de Groq manquent actuellement de mémoire à large bande passante sur puce (HBM), s’appuyant sur la SRAM sur puce, ce qui pourrait limiter les performances sur des modèles plus grands et des tailles de lot qui nécessitent plus de capacité et de bande passante mémoire. De plus, l’intégration de modèles utiles nécessite souvent de connecter de nombreuses puces Groq en réseau en raison de la SRAM limitée sur une seule puce. L’entreprise devra également diversifier ses revenus au-delà du contrat saoudien et continuer à étendre son écosystème de développeurs pour assurer un succès à long terme.