《科技》AI需求爆棚 NAND製程升級加速拚明年量產

TrendForce表示,AI server客戶對供應商加單的情況,導致enterprise SSD合約價於2023年第四季至2024年第三季間的累積漲幅超過80%。SSD在AI發展扮演重要角色,除了在AI模型訓練過程中,SSD主要負責儲存模型參數,包含不斷演變的權重和偏差,另一項重要應用是創建檢查點(check point),以定期保存AI模型訓練進度,即使訓練中斷也能從特定點恢復。由於上述功能都相當依賴高速傳輸以及寫入耐用度,因此客戶主要選擇使用4TB/8TB TLC SSD產品,以滿足嚴苛的訓練過程需求。

TrendForce指出,SSD應用於AI inference server,可在推理過程中協助調整、優化AI模型,尤其SSD可以即時更新數據,以便微調推論模型成果。AI inference主要提供檢索增強生成(RAG, Retrieval-Augmented Generation)和大型語言模型(LLM, Large Language Model)服務,而SSD可以儲存RAG和LLM參考的相關文檔和知識庫,以生成含有更豐富資訊的迴應。此外,因爲有更多生成資訊是以影片或相片顯示,其資料的存儲量也跟着增加,因此,TLC/QLC 16TB以上等大容量SSD便成爲AI inference主要採用的產品。

2024年AI server SSD需求市場除了16TB以上產品需求自第二季大幅上升,隨着NVIDIA H100、H20和H200等系列產品到貨,相關客戶開始進一步加大TLC 4、8TB enterprise SSD訂單動能。根據TrendForce預估,今年AI相關SSD採購容量將超過45EB,未來幾年AI server可望推動SSD需求年增率平均超過60%,而AI SSD需求在全部NAND Flash的佔比有機會自2024年的5%,上升至2025年的9%。

在供給市場面,由於inference server採用大容量SSD產品的趨勢不變,供應商已開始着手加速升級製程,規畫從2025年第一季起開始量產2YY/3XX層,進而量產120TB enterprise SSD產品。