Groq: 600 Mio. $ Finanzierung, 6 Mrd. $ Bewertung – KI-Chip-Nachfrage steigt
Berichten zufolge befindet sich das KI-Chip-Startup Groq in fortgeschrittenen Gesprächen, um rund 600 Millionen US-Dollar an neuen Mitteln zu sichern, was seine Bewertung auf fast 6 Milliarden US-Dollar ansteigen lassen würde. Diese bedeutende Finanzspritze, angeführt von der in Austin ansässigen Investmentfirma Disruptive, unterstreicht die eskalierende Nachfrage nach spezialisierten KI-Chip-Alternativen und Groqs wachsende Bedeutung in diesem Sektor.
Diese jüngste Finanzierungsrunde folgt dicht auf Groqs Serie-D-Runde im August 2024, bei der das Unternehmen 640 Millionen US-Dollar bei einer Bewertung von 2,8 Milliarden US-Dollar von Investoren wie BlackRock, Neuberger Berman, Cisco Investments, KDDI und Samsung Catalyst Fund erhielt. Sollte die aktuelle Runde wie erwartet abgeschlossen werden, würde sich Groqs Bewertung in weniger als einem Jahr fast verdoppeln, wodurch die Gesamtfinanzierung auf weit über 1 Milliarde US-Dollar steigen würde.
Groq, 2016 von Jonathan Ross gegründet, einem ehemaligen Google-Ingenieur, der eine Schlüsselrolle bei der Entwicklung der Tensor Processing Unit (TPU) spielte, hat sich als führendes Unternehmen in der KI-Inferenztechnologie positioniert. Die Kerninnovation des Unternehmens ist seine proprietäre Language Processing Unit (LPU), ein speziell entwickelter Chip, der für die Echtzeitverarbeitung großer Sprachmodelle (LLMs) und generativer KI-Workloads optimiert ist. Im Gegensatz zu Allzweck-GPUs sind LPUs speziell für die KI-Inferenz gebaut und zielen darauf ab, außergewöhnliche Geschwindigkeit, geringe Latenz und Energieeffizienz zu liefern. Groq behauptet, seine Technologie könne Sprachmodelle im Unternehmensmaßstab deutlich schneller ausführen als Lösungen von Branchenriesen wie NVIDIA, AMD und Intel.
Das gestiegene Investorenvertrauen in Groq wird durch jüngste strategische Partnerschaften weiter gestärkt. Im April 2025 schloss sich Groq mit Meta zusammen, um die Inferenzfähigkeiten von Llama 4 zu verbessern und seine Beschleunigungsinfrastruktur für das große Sprachmodell bereitzustellen. Im folgenden Monat kündigte Groq eine exklusive Partnerschaft mit Bell Canada an, um die groß angelegte KI-Infrastruktur des Telekommunikationsgiganten zu unterstützen. Bemerkenswert ist auch, dass Groq Berichten zufolge Anfang dieses Jahres eine Zusage von 1,5 Milliarden US-Dollar von der saudi-arabischen Regierung erhielt, um die Lieferung seiner KI-Chips zu erweitern und das weltweit größte KI-Inferenzzentrum in Dammam zu bauen. Allein dieser Deal soll Groq im Jahr 2025 voraussichtlich rund 500 Millionen US-Dollar Umsatz einbringen.
Disruptive, die in Austin ansässige Investmentfirma, die die aktuelle Runde anführt, wurde 2012 von CEO Alex Davis gegründet und konzentriert sich auf private Technologieunternehmen in der Spätphase. Ihr Portfolio umfasst Investitionen in verschiedenen Sektoren, mit einem starken Schwerpunkt auf KI.
Obwohl Groq erhebliche Fortschritte macht, bleibt der KI-Chip-Markt hart umkämpft. Sein Hauptaugenmerk auf die Inferenz unterscheidet es von Unternehmen wie NVIDIA, das das KI-Trainingssegment dominiert. Groq steht jedoch weiterhin im Wettbewerb mit anderen spezialisierten KI-Chip-Entwicklern wie Cerebras Systems, SambaNova, GrAI Matter Labs und Habana Labs sowie mit Angeboten etablierter Akteure wie Googles TPUs, Intels KI-Prozessoren und AMDs GPU-Beschleunigern.
Trotz einer kürzlich erfolgten Abwärtskorrektur der Umsatzprognosen für 2025 von 2 Milliarden US-Dollar auf 500 Millionen US-Dollar, hauptsächlich aufgrund von Rechenzentrumsverzögerungen, erwartet Groq für 2026 einen Umsatz von 1,2 Milliarden US-Dollar und für 2027 von 1,9 Milliarden US-Dollar. Die Strategie des Unternehmens sieht den globalen Einsatz von Millionen von LPUs vor, mit dem Ziel, bis Ende 2025 bis zu 2 Millionen zu versenden und mehr als die Hälfte des weltweiten Inferenzbedarfs zu decken. Diese ehrgeizige Vision, gepaart mit erheblichen Finanzmitteln und strategischen Partnerschaften, positioniert Groq als wichtigen Akteur bei der Gestaltung der Zukunft der KI-Infrastruktur.