Groq: KI-Chip-Startup strebt 6-Milliarden-Dollar-Bewertung an

Techcrunch

Das KI-Chip-Startup Groq steht Berichten zufolge kurz davor, eine bedeutende Finanzierungsrunde von fast 600 Millionen Dollar abzuschließen, was seine Bewertung auf etwa 6 Milliarden Dollar steigern würde. Diese Entwicklung, von Bloomberg gemeldet und von mit den Verhandlungen vertrauten Quellen bestätigt, bedeutet eine Verdoppelung der Groq-Bewertung in etwa neun Monaten und unterstreicht das intensive Investoreninteresse am spezialisierten KI-Hardwaremarkt. Die Risikokapitalfirma Disruptive soll diese Investition anführen und über 300 Millionen Dollar für den Deal bereitstellen, obwohl die Bedingungen noch nicht finalisiert sind und sich noch ändern könnten.

Groq, gegründet von ehemaligen Google-Ingenieuren, hat sich in der aufstrebenden KI-Chip-Industrie eine Nische geschaffen, indem es eine einzigartige Architektur namens Language Processing Unit (LPU) entwickelt hat. Im Gegensatz zu Allzweck-GPUs (Graphics Processing Units), die das KI-Training dominieren, sind Groqs LPUs speziell für die KI-Inferenz konzipiert – den Prozess des Ausführens vortrainierter KI-Modelle zur Generierung von Vorhersagen oder Antworten. Diese Spezialisierung ermöglicht es Groq, außergewöhnlich hohe Geschwindigkeiten und geringe Latenzzeiten zu erreichen, insbesondere für große Sprachmodelle (LLMs). Zum Beispiel können Groqs LPUs über 500 Wörter in etwa einer Sekunde generieren, was Nvidias GPUs, die für dieselbe Aufgabe fast 10 Sekunden benötigen, deutlich übertrifft. Einige Benchmarks deuten sogar darauf hin, dass Groqs LPU bei bestimmten LLM-Inferenzaufgaben eine 9- bis 18-mal höhere Durchsatzrate als Nvidias A100 GPU erzielen kann, während sie gleichzeitig energieeffizienter ist.

Der strategische Fokus des Unternehmens auf Inferenz ist ein kalkulierter Schritt in einem KI-Chip-Markt, der sich in einer transformativen Phase befindet. Während Nvidia im KI-Training dominant bleibt, wächst die Nachfrage nach Hochleistungs- und Niedriglatenz-Inferenzlösungen rapide, angetrieben durch die zunehmende Akzeptanz von KI in Echtzeitanwendungen wie Chatbots, autonomen Fahrzeugen und Robotik. Der gesamte KI-Chip-Markt wird voraussichtlich ein erhebliches Wachstum verzeichnen, wobei einige Prognosen darauf hindeuten, dass er bis 2025 91,18 Milliarden Dollar und bis 2030 sogar über 400 Milliarden Dollar erreichen könnte.

Groqs Wachstumsstrategie umfasst eine signifikante globale Erweiterung seiner KI-Inferenzfähigkeiten und eine Diversifizierung seiner Dienstleistungsangebote. Ein Schlüsselelement dieser Expansion ist der ehrgeizige Plan, bis zum ersten Quartal 2025 über 100.000 zusätzliche LPUs einzusetzen, mit einem noch aggressiveren Ziel von 2 Millionen Einheiten bis Ende 2025. Dies soll Groq als führenden Anbieter von KI-Inferenz-Computing positionieren und potenziell über die Hälfte der globalen KI-Inferenzdienste verwalten.

Ein bemerkenswerter jüngster Erfolg für Groq ist ein gemeldeter 1,5-Milliarden-Dollar-Vertrag mit Saudi-Arabien zum Aufbau des weltweit größten KI-Inferenzzentrums in Dammam. Dieser Deal wird voraussichtlich im Jahr 2025 etwa 500 Millionen Dollar Umsatz für Groq generieren und steht im Einklang mit Saudi-Arabiens Initiative “KI Vision 2030”. Die Partnerschaft soll Berichten zufolge auch eine 1,5-Milliarden-Dollar-Investition zur Skalierung von Groqs LPU-Bereitstellung umfassen, mit Plänen für über 100.000 Einheiten bis 2025.

Groq hat auch mit seiner GroqCloud-Plattform auf ein Cloud-First-Modell umgestellt und bietet Entwicklern “Inference as a Service” an. Diese verbrauchsbasierte Preisstrategie zielt darauf ab, mehrere Einnahmequellen zu generieren und den Zugang zu Hochleistungs-KI zu demokratisieren. Das Unternehmen erwarb im März 2024 Definitive Intelligence, um seine Cloud-Fähigkeiten zu stärken.

Trotz seiner beeindruckenden Leistung und strategischen Schritte steht Groq vor Herausforderungen. Die hohe Bewertung basiert auf signifikanten Umsatzprognosen und der Fähigkeit des Unternehmens, seine LPU-Technologie zu skalieren. Während Groqs LPU höhere Anfangskosten als einige Nvidia-GPUs hat, bietet sie langfristig Kosteneffizienz durch geringeren Stromverbrauch und Betriebskosten. Allerdings fehlen Groqs Chips derzeit On-Chip-High-Bandwidth-Memory (HBM) und sie verlassen sich auf On-Die-SRAM, was die Leistung bei größeren Modellen und Batch-Größen, die mehr Speicherkapazität und Bandbreite erfordern, einschränken könnte. Darüber hinaus erfordert die Anpassung nützlicher Modelle oft die Vernetzung vieler Groq-Chips aufgrund des begrenzten SRAM auf einem einzelnen Chip. Das Unternehmen muss auch seine Einnahmen über den Saudi-Vertrag hinaus diversifizieren und sein Entwickler-Ökosystem weiter ausbauen, um langfristigen Erfolg zu sichern.