NVIDIA宣佈推出搭載H200 GPU的HGX H200運算平臺 加速人工智慧執行效能
NVIDIA在SC23超算大會上宣佈推出採用H200 Tensor Core GPU的HGX H200運算平臺,藉此強化各類雲端執行個體,並且推動人工智慧執行效能。
相較先前推出的H100,NVIDIA表示H200整合HBM3e記憶體,藉此對應更高資料處理吞吐流量,並且能配合GPU加快人工智慧運算與大型自然語言模型執行效率。透過總容量達141GB的HBM3e記憶體,以及每秒傳輸速率可達4.8TB的表現,相比過往推出的A100將能透過翻倍記憶體容量與2.4倍記憶體頻寬加快人工智慧運算效能。
而藉由沿用H100相容軟體更新,NVIDIA強調將使H200執行諸如NVIDIA TensorRT-LLM、Meta Llama 2等大型自然語言模型能有翻倍效率表現。
至於採用H200的HGX H200主機板,則可對應四路或八路配置,並且相容前一代HGX H100,意味將能直接透過更換進行升級,另外也能搭配Grace Hopper Superchip GH200提高整體算力表現,並且能佈署於雲端、地端、混合雲,或是邊緣環境使用,預計由永擎電子、華碩、Dell、Eviden、技嘉、HPE、鴻佰科技、聯想、雲達、美超微、緯創資通與緯穎科技推出應用設計伺服器產品,預計會在2024年第二季於全球市場提供。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》