資策會看AI伺服器2024有兩大動能 臺供應鏈將受惠

資策會產業情報研究所(MIC)預估,2024年AI伺服器有兩大成長動能,有利臺供應鏈營收。(圖/freepik)

生成式AI熱潮延燒,資策會產業情報研究所(MIC)今表示,光2023年AI伺服器已達全球伺服器總產值過半,預估2024年在大型語言模型(LLM)及「中小語言模型」兩大成長動能下,今年全球AI伺服器出貨量爲194萬臺,有利於我國伺服器代工、電源供應器、遠端控制晶片、ABF載板等產業鏈。

臺灣伺服器產業出貨量,原本即佔全球伺服器超過8成,其中AI伺服器的生產組裝代工更佔9成。隨着全球AI伺服器市場持續成長,其佔整體伺服器出貨比將從2023年12.4%,成長至2027年20.9%。

因此資策會MIC預估,2024年全球AI伺服器出貨量爲194萬臺、2025年達236萬臺,一路成長至2027年320萬臺,年複合成長率(CAGR)爲24.7%。這其中包含價格昂貴並採用高階GPU的AI訓練伺服器,以及採用中低階GPU、FPGA、ASIC的AI推論伺服器。

展望2024年,資策會MIC表示,AI伺服器成長的兩大動能主要來自大型語言模型(LLM)的雲端訓練戰場,以及新興主戰場「中小語言模型」。前者如Google將於今年推出Gemini,以及Amazon也在訓練新的LLM。

後者中小語言模型會是2024年新興競爭領域,許多更爲客製化、符合運算效率的模型將陸續出現。MIC產業顧問魏傳虔表示,此有利於我國伺服器代工、電源供應器、遠端控制晶片、ABF載板、散熱模組等產業鏈業者營收成長。