SuperX 发布多模型AI服务器,预装OpenAI GPT-OSS大语言模型
SuperX AI Technology Limited (NASDAQ: SUPX) 已宣布正式推出其一体化多模型服务器(MMS),将其定位为关键的企业级AI基础设施。这款新产品旨在促进多个AI模型的动态协作,强调即时可用性、集成的多模型功能以及与各种应用场景的深度融合。公司旨在为不同规模的企业提供安全、高效、全面的AI解决方案,并提供定制化规格。此次发布紧随SuperX XN9160-B200 AI服务器于7月下旬首次亮相之后,进一步拓展了其企业AI基础设施产品组合。
一体化多模型服务器(MMS)预配置了OpenAI最近发布的高性能开源大语言模型(LLM)GPT-OSS-120B和GPT-OSS-20B。根据OpenAI自身的基准测试,GPT-OSS-120B模型的性能不仅能与多个领先的闭源模型相媲美,在“大规模多任务语言理解”(MMLU)和“美国数学邀请赛”(AIME)等关键测试中甚至超越了它们。这直接为SuperX的客户带来了显著优势,以卓越的成本效益提供世界级的AI推理和知识处理能力。
对于企业而言,这款服务器的推出标志着AI部署从复杂耗时转向了精简的“交钥匙”体验。企业可以跳过传统上耗费数月进行复杂模型集成、硬件适配和性能调优的过程。SuperX的解决方案提供了一个开箱即用、安全且完全优化的生成式AI平台,支持即时部署高级应用和智能代理,并能够快速响应不断变化的市场需求。这种集成方法将服务器从单纯的硬件转变为完整的企业级生成式AI解决方案,是SuperX的核心差异化优势,旨在加速业务创新和智能决策。
MMS拥有复杂的多模型融合架构,支持广泛AI模型的预配置、调用、加速、管理和迭代。这包括推理模型、通用模型、多模态模型、语音合成与识别模型、嵌入模型、重排序模型以及文本到图像模型。与终端应用场景的深度集成解锁了显著的功能提升。例如,多个智能代理的协作能力可以处理更复杂的业务场景,例如通过识别视频片段中的人物、动作和物体,从文本描述中精确地定位特定视频剪辑。内置的门户助手和知识库系统进一步赋能用户,提供超过60个预配置的场景化代理,涵盖从官方文档起草到法律咨询和政策比较,从而促进无缝、直观的业务流程。该系统还具备云协同模型缓存功能,将本地和基于云的模型存储库连接起来,即时访问全球最新的AI模型,无需延迟。关键的是,MMS提供一体化集成,统一了从芯片层面到模型服务交付的整个技术栈,从而抽象化了复杂的技术架构,让用户能够纯粹专注于应用开发。
MMS设计时充分考虑了实际的企业需求,直接解决了AI采纳中的常见障碍,包括数据隐私、部署复杂性和运营可扩展性。在AI数据安全方面,该服务器在NVIDIA Blackwell平台上集成了NVIDIA Confidential Computing技术,并配备了可信执行环境(TEE)。这个安全区域保护了AI知识产权,并支持机密的AI训练、推理和联邦学习,同时保持高性能。部署过程简化且成本高效,全栈软硬件集成使得服务器可在数分钟内完成部署,仅需最少的额外基础设施或IT资源。尽管针对中小型企业进行了优化,但它也可以通过集群方式扩展以服务大型组织,为传统的基于云的模型即服务(MaaS)API产品提供了高性能替代方案。预配置的模板和操作指南进一步提高了工作流程效率,使业务用户能够通过简化的无代码或低代码界面,为各种企业应用场景快速构建智能代理。
SuperX首席技术官Kenny Sng阐述了公司的愿景:“单一模型无法解决复杂世界的问题。多模型协作是AI向通用人工智能(AGI)发展以服务人类的关键一步。”他强调SuperX致力于与企业合作伙伴和AI代理开发者建立协作生态系统,通过这款一体化多模型服务器(MMS)突破AI能力的边界。一体化多模型服务器系列现已开放订购,定价选项从个人企业用途的AI工作站标准版(50,000美元)到综合应用场景的集群版AI服务器(4,000,000美元起)不等。