SuperX enthüllt Multi-Modell-KI-Server mit OpenAIs GPT-OSS LLMs
SuperX AI Technology Limited (NASDAQ: SUPX) hat den offiziellen Start seiner All-in-One Multi-Modell-Server (MMS) angekündigt und positioniert sie als zentrale, unternehmensgerechte KI-Infrastruktur. Dieses neue Angebot wurde entwickelt, um die dynamische Zusammenarbeit mehrerer KI-Modelle zu erleichtern, wobei der Schwerpunkt auf sofortiger Benutzerfreundlichkeit, integrierten Multi-Modell-Funktionen und tiefer Integration in verschiedene Anwendungsszenarien liegt. Das Unternehmen zielt darauf ab, Unternehmen sichere, effiziente und umfassende KI-Lösungen anzubieten, die in maßgeschneiderten Spezifikationen für Organisationen jeder Größe erhältlich sind. Diese Veröffentlichung folgt kurz nach dem Debüt des SuperX XN9160-B200 KI-Servers Ende Juli und erweitert das Portfolio an unternehmensgerechten KI-Infrastrukturprodukten weiter.
Der All-in-One MMS wird vorkonfiguriert mit den kürzlich von OpenAI veröffentlichten, hochleistungsfähigen Open-Source Large Language Models (LLMs), GPT-OSS-120B und GPT-OSS-20B, geliefert. Laut OpenAIs eigenen Benchmarks zeigt das GPT-OSS-120B-Modell eine Leistung, die nicht nur der mehrerer führender Closed-Source-Modelle entspricht, sondern diese in entscheidenden Tests wie Massive Multitask Language Understanding (MMLU) und dem American Invitational Mathematics Examination (AIME) sogar übertrifft. Dies führt direkt zu einem erheblichen Vorteil für die Kunden von SuperX, da ihnen erstklassige KI-Inferenz- und Wissensverarbeitungsfähigkeiten mit überragender Kosteneffizienz geboten werden.
Für Unternehmen stellt die Einführung dieses Servers einen Wandel von komplexen, zeitaufwändigen KI-Bereitstellungen zu einer optimierten, „schlüsselfertigen“ Erfahrung dar. Unternehmen können die Monate umgehen, die traditionell für die komplizierte Modellintegration, Hardware-Anpassung und Leistungsoptimierung aufgewendet werden. Die Lösung von SuperX bietet eine sofort einsatzbereite, sichere und vollständig optimierte generative KI-Plattform, die die sofortige Bereitstellung fortschrittlicher Anwendungen und intelligenter Agenten ermöglicht und schnelle Reaktionen auf sich entwickelnde Marktanforderungen zulässt. Dieser integrierte Ansatz, der den Server von bloßer Hardware in eine vollständige unternehmensgerechte generative KI-Lösung verwandelt, ist SuperX’ zentrales Unterscheidungsmerkmal, das darauf abzielt, Geschäftsinnovationen und intelligente Entscheidungsfindung zu beschleunigen.
Der MMS verfügt über eine ausgeklügelte Multi-Modell-Fusionsarchitektur, die die Vorkonfiguration, den Aufruf, die Beschleunigung, die Verwaltung und die Iteration einer Vielzahl von KI-Modellen unterstützt. Dazu gehören Inferenzmodelle, Allzweckmodelle, multimodale Modelle, Sprachsynthese- und -erkennungsmodelle, Einbettungsmodelle, Neuanordnung-Modelle und Text-zu-Bild-Modelle. Diese tiefe Integration mit Endanwendungsszenarien ermöglicht erhebliche funktionale Fortschritte. Zum Beispiel kann die kollaborative Kraft mehrerer intelligenter Agenten komplexere Geschäftsszenarien bewältigen, wie das präzise Auffinden spezifischer Videoclips aus einer Textbeschreibung durch Identifizierung von Personen, Aktionen und Objekten innerhalb des Filmmaterials. Ein integrierter Portal-Assistent und ein Wissensdatenbanksystem unterstützen Benutzer zusätzlich mit über 60 vorkonfigurierten szenariobasierten Agenten, die von der Erstellung offizieller Dokumente über die Rechtsberatung bis hin zum Politikvergleich reichen und so einen nahtlosen, intuitiven Geschäftsprozess fördern. Das System verfügt außerdem über eine Cloud-koordinierte Modell-Zwischenspeicherung, die lokale und Cloud-basierte Modell-Repositories miteinander verbindet, um sofortigen Zugriff auf die neuesten KI-Modelle der Welt ohne Verzögerung zu ermöglichen. Entscheidend ist, dass der MMS eine All-in-One-Integration bietet, die den gesamten Technologiestack von der Chipebene bis zur Modellservice-Bereitstellung vereinheitlicht, wodurch komplexe technische Architekturen abstrahiert werden und Benutzer sich rein auf die Anwendungsentwicklung konzentrieren können.
Der MMS wurde mit Blick auf die realen Unternehmensbedürfnisse entwickelt und adressiert direkt häufige Hindernisse bei der KI-Einführung, einschließlich Datenschutz, Bereitstellungskomplexität und betrieblicher Skalierbarkeit. Für die KI-Datensicherheit integriert der Server die NVIDIA Confidential Computing-Technologie auf der NVIDIA Blackwell-Plattform, die ein Trusted Execution Environment (TEE) umfasst. Dieses sichere Enklave schützt KI-geistiges Eigentum und ermöglicht vertrauliches KI-Training, Inferenz und föderiertes Lernen, alles unter Beibehaltung hoher Leistung. Die Bereitstellung ist vereinfacht und kosteneffizient, da die vollständige Hardware-Software-Integration die Bereitstellung des Servers in Minuten ermöglicht und nur minimale zusätzliche Infrastruktur oder IT-Ressourcen erfordert. Obwohl für kleine und mittlere Unternehmen optimiert, ist er auch für große Organisationen durch Clustering skalierbar und bietet eine leistungsstarke Alternative zu herkömmlichen Cloud-basierten Model-as-a-Service (MaaS)-API-Angeboten. Die Workflow-Effizienz wird durch vorkonfigurierte Vorlagen und Bedienungsanleitungen weiter verbessert, die es Geschäftsbenutzern ermöglichen, schnell intelligente Agenten über vereinfachte No-Code- oder Low-Code-Schnittstellen für eine Vielzahl von Unternehmensanwendungsszenarien zu erstellen.
Kenny Sng, CTO von SuperX, formulierte die Vision des Unternehmens mit den Worten: „Ein einziges Modell kann die Probleme einer komplexen Welt nicht lösen. Die Multi-Modell-Zusammenarbeit ist ein entscheidender Schritt in der Entwicklung der KI hin zur Künstlichen Allgemeinen Intelligenz (AGI), um den Menschen zu dienen.“ Er betonte das Engagement von SuperX, ein kollaboratives Ökosystem mit Unternehmenspartnern und KI-Agentenentwicklern aufzubauen, um mit diesem All-in-One MMS die Grenzen der KI-Fähigkeiten zu erweitern. Die All-in-One MMS-Serie ist ab sofort bestellbar, mit Preisoptionen, die vom AI Workstation Standard für 50.000 US-Dollar für den individuellen Unternehmenseinsatz bis zum Cluster Edition AI Server ab 4.000.000 US-Dollar für umfassende Anwendungsszenarien reichen.