全球AI Server需求帶動 集邦估今年產值達1870億美元

根據TrendForce最新發布「AI Server(伺服器)產業分析報告」指出,今年大型CSPs及品牌客戶等對高階AI Server的高度需求未歇,加上CoWoS原廠臺積電及HBM原廠如SK hynix、Samsung及Micron逐步擴產,今年第2季後短缺狀況大幅緩解,連帶使得NVIDIA(輝達)主力方案H100的交貨前置時間(Lead Time)從先前40~50周下降至不及16周,TrendForce預估,AI Server第2季出貨量將季增近20%,全年出貨量上修至167萬臺,年增率達41.5%。

TrendForce表示,今年大型CSPs預算持續聚焦於採購AI Server,進而排擠一般型server成長力道,相較於AI Server的高成長率,一般型Server出貨量年增率僅有1.9%。AI Server佔整體Server出貨的比重預估將達12.2%,較2023年提升約3.4個百分點。若估算產值,AI Server的營收成長貢獻程度較一般型Server明顯,預估2024年AI Server產值將達逾1,870億美元,成長率達69%,產值佔整體Server高達65%。

從AI Server搭配AI晶片類型來看,來自北美CSPs業者(如AWS、Meta等)持續擴大自研ASIC,及中國大陸本土業者如Ali、Baidu、Huawei等積極擴大自主ASIC 方案,促ASIC Server佔整體AI Server的比重在2024年將提升至26%,而主流搭載GPU的AI Server佔比則約71%。

就AI Server搭載的AI晶片供應商分佈來看,單看AI Server搭載GPU,NVIDIA市佔率最高、逼近9成,AMD(超微)市佔率則僅約8%。但若加計所有AI Server用AI晶片(包含GPU、ASIC、FPGA),NVIDIA今年市佔率則約64%。

據TrendForce的調查,展望2025年市場對於高階AI Server需求仍強,尤其以NVIDIA新一代Blackwell(包含GB200、B100/B200等)將取代Hopper平臺成爲市場主流,將帶動CoWoS及HBM等需求。以NVIDIA的B100而言,其晶片尺寸將較H100翻倍,會消耗更多的CoWoS用量,預估2025年主要供應商臺積電的CoWoS生產量規模至年底總產能可達550k~600k,成長率逼近8成。

另以HBM用量來看,2024年主流H100搭載80GB HBM3,到2025年NVIDIA Blackwell Ultra或AMD MI350等主力晶片,將搭載達288GB的HBM3e,單位用量成長逾3倍,隨AI Server市場需求持續強勁下,有望帶動2025年HBM整體供給量翻倍成長。