Googles KI-Infrastruktur am Limit: Gemini-Nachfrage explodiert
Die Infrastruktur für künstliche Intelligenz (KI) von Google steht derzeit aufgrund eines sprunghaften Anstiegs der Nachfrage nach ihren neuesten KI-Modellen unter erheblicher Belastung. Diese Herausforderung hat zu einer begrenzten Verfügbarkeit für Nutzer geführt, die auf einige der fortschrittlichsten KI-Funktionen des Unternehmens zugreifen möchten.
Logan Kilpatrick, ein Google-Produktmanager, hat kürzlich Nutzerbeschwerden bezüglich des eingeschränkten Zugangs zu Gemini 2.5 Pro Deep Think angesprochen. Kilpatrick erklärte, dass die Veröffentlichung des Modells eingeschränkt sei, da es „eine riesige Menge an Rechenleistung benötigt, um zu laufen“. Dieser erhebliche Verarbeitungsbedarf kommt zu einem Zeitpunkt, an dem Googles speziell entwickelte Tensor Processing Units (TPUs), die für KI-Workloads unerlässlich sind, bereits mit maximaler Kapazität arbeiten.
Laut Kilpatrick kämpfen die TPUs darum, mit dem „massiven Wachstum“ Schritt zu halten, das durch mehrere Faktoren angetrieben wird. Dazu gehören die weite Verbreitung von Googles neuem Videogenerierungsmodell Veo, die erhöhte Nutzung des Standard-Gemini 2.5 Pro und die breitere Einführung von KI-Funktionen für Hunderte Millionen von Nutzern.
Der Frust der Nutzer rührt daher, dass die praktische Nutzung von Gemini 2.5 Pro Deep Think trotz seiner starken Benchmark-Leistung durch ZugriffsBeschränkungen behindert wird. Selbst Abonnenten von Premium-Stufen, wie Gemini Ultra, berichten, dass sie auf nur eine Handvoll Anfragen pro Tag beschränkt sind, während Googles Systeme mit den eskalierenden Rechenanforderungen kämpfen.