Groq: El gigante de chips de IA que se acerca a una valoración de $6 mil millones
Según se informa, la startup de chips de IA Groq está a punto de asegurar una importante ronda de financiación, que se acerca a los 600 millones de dólares, lo que impulsaría su valoración a aproximadamente 6 mil millones de dólares. Este desarrollo, reportado por Bloomberg y confirmado por fuentes familiarizadas con las negociaciones, significa una duplicación de la valoración de Groq en aproximadamente nueve meses, destacando el intenso interés de los inversores en el mercado especializado de hardware de IA. Se dice que la firma de capital de riesgo Disruptive está liderando esta inversión, comprometiendo más de 300 millones de dólares en el acuerdo, aunque los términos aún no están finalizados y podrían cambiar.
Groq, fundada por ex ingenieros de Google, se ha labrado un nicho en la creciente industria de chips de IA al desarrollar una arquitectura única llamada Unidad de Procesamiento de Lenguaje (LPU). A diferencia de las GPU (Unidades de Procesamiento Gráfico) de propósito general que dominan el entrenamiento de IA, las LPU de Groq están diseñadas específicamente para la inferencia de IA, el proceso de ejecutar modelos de IA pre-entrenados para generar predicciones o respuestas. Esta especialización permite a Groq alcanzar velocidades excepcionalmente altas y baja latencia, particularmente para grandes modelos de lenguaje (LLMs). Por ejemplo, las LPU de Groq pueden generar más de 500 palabras en aproximadamente un segundo, superando significativamente a las GPU de Nvidia que tardan casi 10 segundos para la misma tarea. Algunas pruebas de rendimiento incluso sugieren que la LPU de Groq puede ser entre 9 y 18 veces más rápida en el rendimiento para ciertas tareas de inferencia de LLM en comparación con la GPU A100 de Nvidia, además de ser más eficiente energéticamente.
El enfoque estratégico de la compañía en la inferencia es un movimiento calculado en un mercado de chips de IA que está experimentando una fase transformadora. Si bien Nvidia sigue siendo dominante en el entrenamiento de IA, la demanda de soluciones de inferencia de alto rendimiento y baja latencia está creciendo rápidamente, impulsada por la creciente adopción de la IA en aplicaciones en tiempo real como chatbots, vehículos autónomos y robótica. Se proyecta que el mercado general de chips de IA experimente un crecimiento sustancial, con algunas previsiones que indican que podría alcanzar los 91.180 millones de dólares para 2025 e incluso superar los 400.000 millones de dólares para 2030.
La estrategia de crecimiento de Groq incluye una expansión significativa de sus capacidades de inferencia de IA a nivel mundial y una diversificación de sus ofertas de servicios. Un elemento clave de esta expansión es el ambicioso plan de desplegar más de 100.000 LPU adicionales para el primer trimestre de 2025, con un objetivo aún más agresivo de alcanzar 2 millones de unidades para finales de 2025. Esto tiene como objetivo posicionar a Groq como un proveedor líder de computación de inferencia de IA, gestionando potencialmente más de la mitad de los servicios globales de inferencia de IA.
Un logro reciente notable para Groq es un contrato reportado de 1.500 millones de dólares con Arabia Saudita para establecer el centro de inferencia de IA más grande del mundo en Dammam. Se espera que este acuerdo genere aproximadamente 500 millones de dólares en ingresos en 2025 para Groq y se alinea con la iniciativa “Visión de IA 2030” de Arabia Saudita. La asociación también incluiría una inversión de 1.500 millones de dólares para escalar el despliegue de LPU de Groq, con planes de más de 100.000 unidades para 2025.
Groq también ha realizado la transición a un modelo “cloud-first” con su plataforma GroqCloud, ofreciendo “Inferencia como Servicio” a los desarrolladores. Esta estrategia de precios basada en el consumo tiene como objetivo generar múltiples fuentes de ingresos y democratizar el acceso a la IA de alto rendimiento. La compañía adquirió Definitive Intelligence en marzo de 2024 para fortalecer sus capacidades en la nube.
A pesar de su impresionante rendimiento y movimientos estratégicos, Groq enfrenta desafíos. La alta valoración se basa en proyecciones de ingresos significativas y en la capacidad de la compañía para escalar su tecnología LPU. Si bien la LPU de Groq tiene un costo inicial más alto que algunas GPU de Nvidia, ofrece eficiencia de costos a largo plazo debido a un menor consumo de energía y costos operativos. Sin embargo, los chips de Groq actualmente carecen de memoria de alto ancho de banda en chip (HBM), confiando en SRAM en el chip, lo que podría limitar el rendimiento en modelos más grandes y tamaños de lote que requieren más capacidad y ancho de banda de memoria. Además, la adaptación de modelos útiles a menudo requiere la interconexión de muchos chips Groq debido a la SRAM limitada en un solo chip. La compañía también necesitará diversificar sus ingresos más allá del contrato saudí y continuar expandiendo su ecosistema de desarrolladores para asegurar el éxito a largo plazo.