SuperX AI Technology Limited(纳斯达克代码:SUPX)(简称"公司"或"SuperX")今日正式揭幕其机架级AI超级算力平台——SuperX GB300 NVL72系统。该系统由NVIDIA GB300 Grace Blackwell Ultra超级芯片提供澎湃动力,专为突破万亿参数大模型在训练与部署时所面临的物理与算力极限而生。液冷设计的GB300系统在性能密度与能源效率上实现了质的飞跃,为现代数据中心基础设施树立了全新标杆。
SuperX GB300 NVL72系统与其同等级的机架级AI系统的问世,标志着行业的关键拐点。通过在单个液冷机架中提供高达1.8 exaFLOPS的AI性能,该系统所达到的惊人计算密度,是传统风冷设计和常规交流(AC)配电方案难以支持的。如此巨大的算力与功耗被高度集中于更小的物理空间内,意味着传统基础设施已无法充分支持这些下一代工作负载。
这一技术变革,也让先进的电源解决方案——特别是800伏直流电(800VDC)——不再仅仅是一项能效优势,而是成为了支撑这一切的根本基石。能够直接、高效地为机架输送海量电力的能力,如今已成为确保系统稳定性、安全性和运营可行性的生命线。因此,SuperX GB300 NVL72系统的定位并非孤立的硬件产品,而是我们全栈式"SuperX预制化模块化AI工厂"解决方案中的核心引擎,它与部署所必需的液冷系统,及800VDC供电基础设施共同构成了一个有机的整体。
图1. SuperX GB300 NVL72 系统
Grace Blackwell Ultra超级芯片的优势
SuperX GB300系统构建于GB300超级芯片的基础之上,采用2:1的组合,集成了72颗NVIDIA Blackwell Ultra GPU和36颗NVIDIA Grace CPU。这种深度集成通过900GB/s的片间互联链路提供了接近极致的带宽,无缝连接Grace CPU的高内存带宽与Blackwell Ultra GPU。它通过将2,304GB的HBM3E显存与Grace CPU广阔的LPDDR5X内存相结合,确保了统一的内存池,从而能够在没有I/O瓶颈的情况下处理大规模的模型和键/值缓存。同时,Grace CPU的节能处理与Blackwell Ultra GPU的计算密集型性能相得益彰,实现了较佳的效率和卓越的每瓦性能。
机架级的百亿亿次AI计算
GB300系统为大规模横向扩展而生。单个SuperX GB300系统可扩展至NVL72机架配置,将72颗Blackwell Ultra GPU连接成一个单一的、巨大的GPU系统。该系统实现了突破性的性能,在单个机架内即可达到高达1.8 exaFLOPS的FP4 AI计算能力,为大规模AI训练和推理重新定义了行业标准。凭借800Gb/s的InfiniBand XDR连接,它确保了在苛刻的AI集群中实现超低延迟,释放出巨大的可扩展性潜力。为维持如此高的性能水平,系统采用了先进的液冷设计,实现了卓越的密度和持续的24/7全天候运行,同时优化能源效率。
技术规格:
组件 (每机架) |
规格 |
CPU |
36颗NVIDIA Grace CPU(共144个Arm Neoverse V2核心) |
GPU |
72颗NVIDIA Blackwell Ultra GPU |
总HBM3E显存 |
≈165TB(GPU高带宽内存) |
总LPDDR5X内存 |
≈17TB(Grace CPU内存) |
峰值AI性能 |
≈1.8 ExaFLOPS (FP4 AI) |
网络 |
4个NVIDIA NVLink连接器 (1.8TB/s), 4个NVIDIA ConnectX 8 OSFP端口 (800Gb/s), 1个NVIDIA BlueField 3 DPU (400Gb/s) |
尺寸 |
48U NVIDIA MGX机架, 2296mm(高) x 600mm(宽) x 1200mm(深) |
市场定位
SuperX GB300 NVL72系统是为构建未来AI基础的组织提供的理想基础设施: