HBM霸主SK海力士產能版圖再擴張:欲斥資近39億美元在韓新建DRAM生產基地

智通財經APP獲悉,AI芯片霸主英偉達(NVDA.US)的最核心HBM存儲系統供應商SK海力士(SK Hynix)計劃擴大人工智能基礎設施的核心硬件組件——HBM存儲系統等下一代動態隨機存取存儲(DRAM)芯片的產能。據瞭解,這家韓國存儲芯片製造商計劃投資約5.3萬億韓元(大約38.6億美元),在韓國忠清北道的清州建造M15X晶圓廠,作爲新的DRAM存儲芯片大型生產基地。此前不久SK海力士宣佈計劃投資約40億美元,在美國建立大型的芯片先進封裝工廠。

據瞭解,這項大型建設將於4月底開始,預計可能於2025年11月完工,並進行早期的存儲芯片批量生產。從長遠角度來看,隨着AI所需的硬件設備投資規模逐步增加,新生產基地的長期總投資額可能將超過20萬億韓元。

SK海力士總裁兼首席執行官Kwak Noh-Jung表示:“M15X將成爲向世界提供人工智能關鍵存儲設備的最核心生產設施,將成爲連接公司現在和未來的跳板。”

在全球科技企業佈局AI的這股前所未有狂熱浪潮中,SK海力士提供的HBM存儲系統可謂AI最核心基礎設施之一,其重要性與英偉達H100等AI GPU並駕齊驅。該公司在HBM市場佔據絕對的主導地位,SK海力士爲英偉達高性能AI GPU——H100/H200 HBM存儲系統的獨家供應商,此外,SK海力士當前已開始全面量產集成英偉達AI GPU的新一代HBM存儲——HBM3E,首批出貨已經於3月交付給英偉達。

HBM是一種高帶寬、低能耗的存儲技術,專門用於高性能計算和圖形處理領域。通過基於3D堆疊工藝的先進封裝,多個DRAM存儲芯片能夠堆疊在一起形成HBM存儲系統,並且通過微細的Through-Silicon Vias(TSVs)進行數據傳輸,從而實現高速高帶寬的數據傳輸。

HBM主要用於高性能圖形卡、AI加速、高性能計算和數據中心服務器等領域,其高帶寬特性,以及極低延遲和高能效比使得處理器能夠更快地訪問存儲空間,大幅提高計算性能和效率。在AI基礎設施領域,HBM存儲系統搭配英偉達H100 AI GPU系統,以及即將量產的B200和H200等AI GPU系統使用。華爾街大行高盛日前發佈研報稱,預計HBM存儲的市場總規模將從2022年到2026年前增長10倍(4年複合年增長率高達77%),從2022年的23億美元增長至2026年的230億美元。

HBM市場方面,截至2022年,三大原廠HBM市佔率分別爲SK海力士50%、三星電子約40%、美光約10%,由於SK海力士在HBM領域最早發力,早在2016年已涉足這一領域,因此佔據着絕大多數市場份額。有業內人士表示,2023年SK海力士HBM市場份額分佈將在55%左右,位列絕對主導地位。

另外,SK海力士還計劃按照當初制定的計劃,向韓國龍仁半導體產業園區投資120萬億韓元左右。

該公司指出,這些投資規模是爲了配合人工智能芯片需求的極度快速增長步伐,尤其是HBM存儲系統,並且該公司預計服務器高容量DDR5模塊產品需求也將穩步增長。

據媒體報道,這家總部位於韓國的存儲巨頭還打算投資約40億美元,在美國印第安納州西拉斐特建立大型的芯片先進封裝工廠,力爭擴張HBM存儲產能以滿足英偉達龐大需求,預計該先進封裝廠將於2028年開始運營並初步投產。