存儲芯片巨頭打響HBM爭霸戰!美光、新思科技多位行業大牛解讀功耗挑戰

芯東西(公衆號:aichip001)編譯 王傲翔編輯 程茜

芯東西4月11日消息,美國半導體行業雜誌EE Times(《電子工程專輯》)週二報道,在2023年生成式AI熱潮下,隨着HBM3的量產,適用於AI應用與數據計算的HBM內存的功耗受到越來越多關注。

隨着AI技術的迅猛發展,企業對AI服務器內存帶寬的需求正持續上升,但數據中心電力成本的不斷上漲使企業開始將每瓦帶寬作爲重要的指標。企業在選擇內存時面臨成本和性能的平衡考量。

作爲能夠滿足AI對高帶寬內存需求的關鍵技術,HBM成爲企業的首選內存。美光、三星等HBM供應商正探索創新解決方案,降低HBM功耗,確保HBM在未來高性能計算和AI應用中發揮關鍵作用。

EE Times專訪了美國著名半導體技術供應商Rambus硅IP產品營銷高級總監Lou Ternullo、美國市場研究和諮詢公司Objective Analysis首席分析師Jim Handy、全球最大半導體IP接口供應商新思科技高級產品經理Graham Allan、以及美光產品管理高級總監Girish Cherussery,討論了在當前AI持續發展下,HBM面臨的功耗問題和供應商可以採取的技術措施等話題。

一、電力能耗持續上漲,內存選擇受到成本限制

Lou Ternullo在接受採訪時稱,AI對內存帶寬的需求不斷增加,與HBM帶寬的增加直接相關。他說:“在整個市場上,我們看到數據集和訓練模型的參數越來越大,2023年的生成式AI熱潮只是加速了這一趨勢。”

他認爲,人們對AI服務器的性能、內存帶寬和內存大小等需求呈指數級增長,這給下一代HBM帶來了更高的期望和壓力。

此外,雖然每瓦帶寬這一概念並不新鮮,HBM對每瓦帶寬進行了優化以提高服務器效率,但AI數據中心的能耗一直在上升。Ternullo稱:“2023年各企業對生成式AI的鉅額投資和部署讓一些人預測到2026年數據中心的用電量將翻一番。”

Ternullo補充說,數據中心快速增長的電力成本意味着,對於需要監控運營成本的企業來說,每瓦帶寬正在成爲一個更加重要的指標。隨着社會對可持續發展倡議的日益關注,這一點變得更加重要。

與HBM相關的高成本和內存本身的高價格意味着,在決定超大功率內存是否需要應用時,企業總體擁有成本成爲決定性因素,即企業整個數據中心的成本之和。客戶在決定需要哪種內存時,首先會考慮內存的密度、性能和功耗等因素。

二、AI性能需求沒有上限,HBM成AI服務器最佳內存

與其他存儲芯片相比,AI或機器學習是極少數能夠將更昂貴的HBM商業化的應用之一。Ternullo稱:“像AI這樣的應用對內存帶寬有着無盡的渴求,這些應用能爲企業帶來更高的投資回報率,這就證明了HBM成本較高的合理性。”

不過,AI需求增加並不直接導致HBM成本上升。這是因爲,AI需求主要推動企業對GPU使用的增加,但GPU通常需要HBM的使用才能達到AI服務器的預期性能。

Jim Handy稱,企業需要明確的使用HBM的理由。對於某些圖形應用,類似AMD這樣的公司會在某些GPU上使用GDDR顯存,因爲GDDR相較HBM更加便宜。

Handy解釋,在AI場景外,GPU主要用於圖形處理,尤其是用於遊戲和計算機動畫後期特效。他說:“許多公司都在使用GPU,而且數量還不少。他們會有一個裝滿GPU的大型數據中心。”雖然GDDR最初爲圖形工作而設計,但多年來的新興應用已使其他應用場景對GDDR產生了競爭性需求。

同樣,Graham Allan認爲,考慮到AI發展,昂貴的HBM現在也很難買到。雖然HBM仍有邊緣應用,但大部分應用集中在AI領域。

即使HBM的第三次迭代已進入大批量生產階段,Allan也不認爲這項技術已經成熟。“HBM在DRAM方面是獨一無二的,因爲它是唯一不安裝在處理器旁邊主板上的DRAM。”他說,“不過,HBM的2.5D封裝技術需要額外的技術步驟,這給整個行業帶來了挑戰。”

三、HBM需要集成在處理器上,多家供應商抓緊量產

Allan認爲DRAM的實現非常簡單。他說:“如果你想設計一個具有DDR5接口的SoC,你可以去查看開源的任何一種參考設計,例如找到英特爾批准的DDR5 DIMM,便可獲得所有零部件號。這是一項成熟的技術。”

但對於HBM來說,包括DRAM在內的所有部分都封裝在SoC內。企業可以從美光、三星和SK海力士等多家供應商中選擇HBM,同時必須解決如何設計Interposer(中介層)組裝以及其他問題,包括信號路徑和信號完整性。

新思科技爲客戶提供控制HBM所需的IP,包括控制器(Controllers)、物理層接口(PHY)以及驗證IP(verification IP)。Allan說:“客戶正在尋求在HBM專業技術和特定參考設計方面的幫助。我們共享參考設計方案和一些最常見的中介層技術。此外,我們還協助硅片測試,包括中介層及組件的連接。這樣一來,我們可以爲客戶提供完全定製的測試芯片。”

他認爲硅片測試對於HBM尤爲重要,因爲企業一旦投入設計並將HBM應用到系統中,再進行更改就會非常耗時。

“HBM正在走向成熟,但仍遠不及DDR和LPDDR技術成熟。儘管HBM4的邏輯方法與HBM3相似,但從DDR4到DDR5是一個巨大的飛躍。”Allan說,“選擇使用HBM是一項重大承諾,因爲它更加複雜,而且是一種低容量產品。客戶希望儘可能降低決策風險。”

Allan還稱,客戶之所以選擇HBM,是因爲其他產品都無法滿足他們的要求。在HBM之下,對於一些應用來說,GDDR內存可能是足夠的,並且GDDR7的容量是GDDR6的兩倍,數據傳輸率也有所提高。但數據傳輸率高是因爲數據傳輸的通道相對較窄。

“你可以達到更高的數據傳輸率,但你必須非常小心地設計你的系統,因爲你的系統運行速度非常快。”他說。

不過,GDDR7是2026年的技術,並且去年推出的HBM3帶寬潛力較GDRR7還要高出3倍。Allan認爲帶寬的發展空間非常大。

他補充道,這並不意味着這樣的帶寬潛力足夠滿足企業對AI的需求,並且還有其他因素在影響整個服務器能完成多少任務。例如,中介層有可能成爲瓶頸。如果服務器的PCB佈線不佳,串擾過多,那麼服務器性能最終可能會下降。

微電子產業領導標準機構固態技術協會(JEDEC)目前正在制定HBM4規範,但不願說明這一規範的進展情況。SK海力士副總裁金基泰(Kim Chun-hwan)在2024年韓國半導體展(Semicon Korea 2024)上發表主題演講時透露,該公司計劃在2026年之前開始量產HBM4。

美光最近開始量產其HBM3E內存,今年HBM產能已基本售罄。該公司的首款HBM3E具備8層堆疊和24GB容量,並具有1024位接口、9.2GT/s的數據傳輸速率和1.2TB/s的總帶寬。

▲美光HBM3E規格(圖源:Micron Technology)

四、數據中心更加註重功耗,美光、三星採用不同方式降低內存功耗

Girish Cherussery稱,HBM剛進入市場時,美光審查了HBM適用的工作負載,並決定將HBM性能目標定爲比行業需求高出30%。“我們是經得起未來考驗的。”Cherussery說,“一個關鍵指標是每瓦性能,這是一個關鍵的功耗邊界條件。我們專注於確保每瓦性能顯著提高。” 此外,客戶還希望HBM靠近計算單元。

Cherussery解釋道,包括大語言模型在內的許多AI工作負載正變得越來越受內存約束,而不是受計算約束。如果你的服務器有足夠的計算能力,那麼服務器內存帶寬和容量就會成爲制約因素。AI工作負載給數據中心帶來了很大壓力。

此外,內存利用率高意味着內存功率是數據中心的耗電大戶,因此節省5瓦的電量就能提高內存利用的效率。越來越多的數據中心看重瓦特數而不是服務器的數量。使用HBM時,冷卻HBM也是一個重要因素,因爲它是一種堆疊式內存。HBM運轉產生的熱量需要散發出去。

除了帶寬、功耗和整體散熱情況外,易於集成是所有HBM最關鍵的特性。Cherussery稱,美光擁有自己的專利,可以將其HBM集成到主機系統中。

“業界已經爲HBM3E做好了準備,它可以很容易地被集成到使用HBM的系統中。”他說,“我們的產品可以無縫集成到相同的插槽中,無需任何改動。它的佔位面積與上一代產品相同。”

更高的帶寬和更大的容量將是HBM4的特點。隨着AI大模型的增長,企業對HBM容量和帶寬的要求也呈線性增長。

“內存行業整體處於一個有趣的階段,因爲從未出現過某種工作負載如生成式AI和普通AI一般,與內存帶寬和內存容量的增長呈線性關係。這意味着對於計算和內存,企業將不得不開始考慮與過去略有不同的系統。數據中心本身正變得越來越異構。”他說。

三星也見證了數據中心裡異構計算和更多以AI爲重點的服務的顯著增長。負責三星產品規劃和業務支持的副總裁金仁東(Indong Kim)說:“這種增長似乎與同時提供直接和間接AI解決方案的超大型企業的崛起相吻合。”

他認爲,數據中心正在不斷髮展,以便將計算資源的最大潛力用於包括AI在內的特定工作負載,實現這樣潛力的重點在於DRAM帶寬和容量。尤其令人興奮的是,採用CPU和專用加速器這兩種不同類型處理器的異構架構,在提升內存方面的目標是一致的。他相信,這一趨勢將爲DRAM製造商提供巨大的增長機會。

在Memcon 2024大會上,三星展示了該公司所稱的全球首款12堆棧HBM3E DRAM。它採用了三星先進的熱壓非導電膜(TC NCF)技術,內部垂直密度較前代產品提高了20%以上,同時還提高了產品良率。隨着大規模並行計算在高性能計算(HPC)環境中越來越普及,Kim稱HBM需求還將激增。

三星的HBM3E DRAM專爲滿足高性能計算和苛刻的AI應用而設計。該公司還推出了基於Compute Express Link(CXL)開放互連協議的Memory Module-Box(CMM-B)內存盒模組,旨在支持需要大容量內存的應用,例如AI、內存數據庫和數據分析。CMM-B還支持內存池(memory pooling),這是異構計算的一個關鍵要素。

▲三星推出CXL Memory Module-Box內存盒模組(圖源:Samsung Electronics)

金仁東稱,AI對內存容量和帶寬的需求不斷增長,模型的參數規模不斷增長,加速了存儲芯片玩家對不同存儲技術研發的步伐。CXL協議與HBM相互交織,爲應對不斷增長的AI需求提供最佳特性,促進現有的DRAM-SSD存儲層次結構的發展。

他說:“我們相信,CXL將成爲不斷增長的容量需求的完美補充,提供最佳特性,彌合現有的DRAM-SSD層次結構。”

結語:HBM發展前景廣闊,幫助企業降低成本

隨着AI對內存帶寬需求的持續增長,HBM作爲一種高性能內存技術受到越來越多的關注。儘管HBM面臨着成本高、集成複雜等挑戰,但其在AI數據中心和其他應用場景中的重要性不斷凸顯。HBM供應商也在採取不同的技術降低HBM功耗,以幫助節省數據中心電力成本。

在此背景下,HBM逐漸走向成熟,但仍需面臨DDR和LPDDR等成熟技術的挑戰。隨着HBM4、HBM3E的開發和部署,預計HBM將繼續在高性能計算和AI應用中發揮重要作用。