雲端巨頭熱戰 輝達變共主

雲端巨頭AWS與輝達合作,打造AI超級電腦。圖/美聯社

雲端巨頭與輝達合作

繼微軟攜手輝達(NVIDIA)推出AI代工服務後,另一巨頭AWS(Amazon Web Services)也與輝達合作,共同打造首款由超過1.63萬個GH200晶片驅動的AI超級電腦。科技業者指出,CSP(雲端服務供應商)步入以AI開發AI的高速擴張階段,軍備大戰越演越烈,除輝達確立AI共主地位外,臺系供應鏈如臺積電、雲達、神達、英業達、緯創、緯穎同樣受惠。

輝達多元佈局AI領域,29日推出名爲NeMo Retriever的人工智慧微服務,與Cadence(新思科技)、SAP等企業率先導入應用,提升自然語意檢索能力,實現更精準的人工智慧推論服務,例如各類聊天機器人、Copilot輔助功能與內容摘要工具等,目標逐步蠶食軟體大餅,打造全局通吃局面。

此外,AWS擴大與輝達合作,成爲首家導入多節點NVLink技術之GH200的CSP業者,預期將拉擡首波GH200系列AI伺服器優先出貨的廣達(雲達)動能,另神達(神雲)亦可望跟進出貨。

供應前段晶片模組與基板的緯創與鴻海,出貨效益亦於今年下半年起逐步浮現,伺服器主板供應大廠英業達也可望在AWS拉貨帶動下推升營運動能,公司並因應AWS針對大規模與尖端生成式AI及HPC高效能運算,規畫於明年一、二季出貨的L40S及H200系列產品。

值得注意的是,AWS積極發展採用ARM架構的自研晶片之AI伺服器,法人指出,受惠股緯穎即自近兩季來浮現效益,預期在AWS持續擴大拉貨力道下,第四季可望能有優於其它ODM廠的出貨表現,營運動能預估將延續至明年。

業者指出,輝達和AWS展開合作,並於AWS上託管NVIDIA的人工智慧訓練服務NVIDIA DGX Cloud,爲首個GH200 NVL32之DGX Cloud,加速尖端的生成式人工智慧和參數超過1兆個的大型語言模型的訓練。此外,也將打造世界上最快GPU驅動的人工智慧超級電腦-Ceiba計劃,配備16,384個 NVIDIA GH200 超級晶片,彙集雙方技術優勢。