NVIDIA Blackwell: Neue GPUs & Server für Unternehmens-KI und Robotik

Artificialintelligence

NVIDIA ist bereit, die Reichweite seiner beschleunigten Computing-Plattform erheblich zu erweitern und kündigt an, dass die neue RTX PRO 6000 Blackwell Server Edition GPU bald in Unternehmensserver von großen Anbietern integriert wird. Cisco, Dell Technologies, HPE, Lenovo und Supermicro werden verschiedene Konfigurationen dieser leistungsstarken GPUs innerhalb ihrer 2U-Server-Produktlinien anbieten. Diese Einführung zielt darauf ab, erhebliche Leistungs- und Effizienzsteigerungen in einem Spektrum anspruchsvoller Anwendungen zu liefern, darunter fortschrittliches KI-Modelltraining, anspruchsvolle Grafik-Renderer, komplexe Simulationen, Datenanalyse und kritische Industrieoperationen.

Laut Jensen Huang, Gründer und CEO von NVIDIA, löst künstliche Intelligenz einen fundamentalen Wandel im Computing aus, eine Transformation, die seit sechs Jahrzehnten nicht mehr gesehen wurde. Was als ein Cloud-zentriertes Phänomen begann, formt nun die Architektur von On-Premises-Rechenzentren neu. Mit der Unterstützung führender Serverhersteller beabsichtigt NVIDIA, dass seine Blackwell RTX PRO Server zur Standardplattform für Unternehmens- und Industrie-KI-Workloads werden.

Während jährlich Millionen von Servern für Geschäftsoperationen verkauft werden, die immer noch überwiegend auf traditionelle CPUs angewiesen sind, markiert die Einführung der RTX PRO Server einen entscheidenden Schritt hin zur GPU-Beschleunigung für gängige Geschäftsanwendungen. NVIDIA behauptet, dass diese neuen Server Edition GPUs im Vergleich zu reinen CPU-Systemen eine bis zu 45-mal bessere Leistung und eine 18-mal höhere Energieeffizienz liefern können, wodurch die Fähigkeiten in Analyse, Simulationen, Videoverarbeitung und Rendering dramatisch gesteigert werden. Die RTX PRO-Linie wurde speziell für Unternehmen entwickelt, die „KI-Fabriken“ einrichten, bei denen Platz-, Strom- und Kühlungsbeschränkungen von größter Bedeutung sind. Diese Server bilden auch die grundlegende Infrastruktur für NVIDIAs KI-Datenplattform und unterstützen fortschrittliche Speichersysteme. Zum Beispiel aktualisiert Dell seine KI-Datenplattform, um NVIDIAs Architektur zu nutzen, wobei seine PowerEdge R7725 Server zwei RTX PRO 6000 GPUs, die NVIDIA AI Enterprise Software und integrierte NVIDIA-Netzwerke umfassen. Diese neuen 2U-Server, die bis zu acht GPU-Einheiten aufnehmen können, wurden ursprünglich auf der COMPUTEX im Mai vorgestellt.

Das Herzstück dieser neuen Server bildet NVIDIAs fortschrittliche Blackwell-Architektur. Zu den Hauptmerkmalen gehören Tensor Cores der fünften Generation und eine Transformer Engine der zweiten Generation, die mit FP4-Präzision KI-Inferenzaufgaben bis zu sechsmal schneller ausführen kann als die vorherige L40S GPU. Für visuelles Computing bietet die RTX-Technologie der vierten Generation eine bis zu viermal höhere Leistung als die L40S GPU beim Foto-Rendering. Die Architektur umfasst auch robuste Virtualisierungsfunktionen und die NVIDIA Multi-Instance GPU-Technologie, die es jeder GPU ermöglicht, bis zu vier separate Workloads gleichzeitig zu verarbeiten. Darüber hinaus trägt die verbesserte Energieeffizienz dazu bei, den Gesamtstromverbrauch des Rechenzentrums zu senken.

Über traditionelle Unternehmensanwendungen hinaus sind die RTX PRO Server darauf ausgelegt, physische KI und Robotik anzutreiben. NVIDIAs Omniverse-Bibliotheken und Cosmos-Weltfundamentmodelle, die auf diesen Servern laufen, erleichtern komplexe digitale Zwillingssimulationen, anspruchsvolle Robotertrainingsroutinen und die Erstellung großer synthetischer Daten. Sie unterstützen auch NVIDIA Metropolis-Blueprints, die erweiterte Videosuche und -zusammenfassung sowie Vision Language Models ermöglichen, die für reale physische Umgebungen entscheidend sind. NVIDIA hat seine Omniverse- und Cosmos-Angebote mit neuen Omniverse SDKs und erweiterter Kompatibilität mit MuJoCo (MJCF) und Universal Scene Description (OpenUSD) verbessert, was Robotersimulationsfähigkeiten potenziell für über 250.000 MJCF-Entwickler eröffnen könnte. Neue Omniverse NuRec-Bibliotheken führen Ray-Traced 3D Gaussian Splatting zur Modellkonstruktion aus Sensordaten ein, während aktualisierte Isaac Sim 5.0- und Isaac Lab 2.2-Frameworks, die auf GitHub verfügbar sind, neurales Rendering und neue OpenUSD-basierte Schemas für Roboter und Sensoren hinzufügen. NuRec-Rendering ist bereits in den autonomen Fahrzeugsimulator CARLA integriert und wird von Unternehmen wie Foretellix zur Generierung synthetischer AV-Testdaten eingesetzt. Voxel51s FiftyOne-Daten-Engine, die von Automobilherstellern wie Ford und Porsche verwendet wird, unterstützt jetzt ebenfalls NuRec. Zu den prominenten Anwendern dieser Bibliotheken und Frameworks gehören Boston Dynamics, Figure AI, Hexagon und Amazon Devices & Services.

Die Cosmos World Foundation Models (WFMs) wurden über zwei Millionen Mal heruntergeladen und unterstützen hauptsächlich die Generierung synthetischer Trainingsdaten für Roboter mithilfe von Text-, Bild- oder Video-Prompts. Das neue Cosmos Transfer-2-Modell beschleunigt die Generierung von Bilddaten aus Simulationsszenen und räumlichen Eingaben wie Tiefenkarten erheblich, wobei Unternehmen wie Lightwheel, Moon Surgical und Skild AI es bereits für die Produktion großer Trainingsdaten nutzen. NVIDIA hat auch Cosmos Reason eingeführt, ein 7-Milliarden-Parameter-Vision-Language-Modell, das Roboter und KI-Agenten befähigen soll, indem es Vorwissen mit einem Verständnis der Physik integriert. Dieses Modell kann die Kuratierung von Datensätzen automatisieren, die Planung mehrstufiger Roboteraufgaben unterstützen und Videosysteme verbessern. NVIDIAs eigene Robotik- und DRIVE-Teams nutzen Cosmos Reason für die Datenfilterung und -annotation, während Uber und Magna es in autonomen Fahrzeugen, der Verkehrsüberwachung und industriellen Inspektionssystemen eingesetzt haben.

Für groß angelegte KI-Agenten-Bereitstellungen sind RTX PRO Server in der Lage, das neu angekündigte Llama Nemotron Super-Modell auszuführen. Beim Betrieb mit NVFP4-Präzision auf einer einzelnen RTX PRO 6000 GPU bieten diese Server eine bis zu dreimal bessere Preis-Leistungs-Verhältnis im Vergleich zur Verwendung von FP8-Präzision auf NVIDIAs H100 GPUs, was ihre Effizienz für anspruchsvolle KI-Workloads unterstreicht.