《電周邊》雲達秀肌肉 AI伺服器採NVIDIA Blackwell技術
「生成式AI已成爲幾乎所有行業數位轉型的關鍵推動力,這也創造了對AI基礎設施的強大需求」,雲達科技總裁楊麒令表示。「雲達科技作爲經驗豐富的超大規模基礎設施供應商,已經準備好提供採用NVIDIA技術、兼具高性能和高能效的加速運算平臺,協助資料中心和企業加速生成式AI 的部署」。
「雲達科技運用NVIDIA全堆疊加速運算平臺,滿足全球資料中心對先進AI基礎設施日益增加的需求,幫助企業實現AI驅動的創新,同時達到性能極大化、成本優化,並縮短從部署到實現價值的時間」,NVIDIA GPU產品管理副總Kaustubh Sanghani表示。
雲達科技在SC24展示的加速運算系統包括:
一、基於NVIDIA MGX架構的QuantaGrid伺服器,QuantaGrid D75B-1U和QuantaGrid D75E-4U基於NVIDIA MGX模組化參考設計,具備靈活、快速開發上市,以及相容多個世代等特性。這些系統分別採用最新NVIDIA Blackwell GPU和NVIDIA H200 NVL等NVIDIA PCIe GPU,易於部署和擴展,支援主流AI 推理和大語言模型(LLM)工作負載。
二、8-GPU NVIDIA HGX Blackwell或NVIDIA HGX Hopper伺服器。QuantaGrid D75F-9U、QuantaGrid D75H-7U 和QuantaGrid D75L-5U ,專爲應對最複雜的AI 和HPC 任務而打造,如LLM、推薦系統和聊天機器人等。它們配備8 顆NVIDIA Blackwell或NVIDIAHopper GPU,GPU與GPU之間透過NVIDIA NVLink進行互聯,並擁有靈活的I/O插槽,可支援NVIDIA BlueField-3 SuperNIC和DPU。
三、NVIDIA GB200 NVL72機櫃級解決方案。由18臺QCT QuantaGrid D75B-1U伺服器和9臺第五代NVIDIA NVLink交換機所組成的水冷式AI工廠,專爲實現兆級參數即時推理與訓練而打造。藉由將72顆Blackwell GPU互聯爲一體,提供強大性能、卓越能源效率和超低總擁有成本。
此外,雲達科技還提供許多采用NVIDIA加速技術的硬體產品,包括NVIDIAGB200 NVL72、配備HBM3e 記憶體的NVIDIA H200 NVL,以及配備4張和8張GPU的NVIDIA HGX H200。最新的NVIDIA H200 NVL可加速主流企業用伺服器的AI工作表現。相較於H100 NVL,H200 NVL的LLM推理速度提升高達1.8倍,HPC應用性能也提高1.3倍。雲達科技還在SC24展示自家整合解決方案和AI/HPC應用案例,包括QCT Platform on Demand(QCT POD)。這是一個同時支援雲原生與裸機環境的HPC和AI融合式系統,它同時整合了NVIDIA NGC目錄,簡化AI與HPC工作流程。