《科技》AI及車聯網新科技浪潮 液冷解「熱」趨勢成型(3-1)

傳統電子產品解決熱耗方式分爲「均熱」及「散熱」兩大部分,即先在CPU及GPU上放置均熱片(Heat Spreader或稱Lid)封裝後,再放置散熱模組,簡單來說,當CPU、GPU或VGA等發熱元件運作產生高熱時,先透過均熱片將熱均勻導向各區域,藉由大面積增加空氣接觸(氣冷原理),將熱擴散避免單點過熱,然後再利用散熱模組內的熱導管或VC(散熱板)水循環物理原理進行導熱及散熱,也就是在熱導管或熱板封閉環境中,將空氣抽到100之1接近真空狀態,利用真空環境低壓、水沸點降至約50度到60度物理特性,藉由熱導管或熱板吸熱,將銅熱管或熱板內水氣化成水蒸氣,再透過銅管內的銅網、毛細材等冷卻讓水蒸氣凝結爲水回到原點達到散熱效果,在空間較大的PC、NB還會加上風扇,加速達到散熱效果。

爲因應高速運算需求,半導體制程朝更先進奈米制程及晶圓級3D封裝發展,不僅晶片尺寸微縮,亦整合更多電晶體,熱密度增加導致熱衝擊更大,長時間、甚至是24小時日以繼夜運作的高速運算及高速傳輸產生瞬間高熱頻率大幅增加,均熱片必須將單位面積所產生的高熱快速傳導均勻散佈在整個板片上,讓局部熱點可能造成之元件不穩定性降至最低,增強元件的可靠度及壽命,新一代均熱片除須有效接合各個晶片快速熱傳,以有效抑制Substrate受熱變型,更進一步升級具有散熱功能。

再者,兩大伺服器新平臺運算效能大幅提升,熱設計功耗(TDP)亦前一代小於300瓦攀升至350瓦到400瓦,且當前資料中心的機櫃密度已到達30KW、未來會達到60KW、甚至更高,連帶所釋放的最大熱量也不斷升高;以伺服器標準機櫃爲例,每個伺服器機櫃有42層,每層放置一臺伺服器,一臺伺服器有4顆CPU(中央處理器),每顆CPU運作時約產生300瓦熱,當42臺伺服器都在運作時,將產生40KW(千瓦)以上的高熱,若加上GPU(圖形處理單元),產生的熱可能高達50KW(千瓦)以上,如同一個工業用燒結爐,爲因應高速運算需求,一個資料庫中心至少須1000個機櫃,降低熱耗讓各機櫃的伺服器系統維持穩定運作,成爲建置雲端資料中心必須克服的挑戰。

過去伺服器散熱,多是延伸3C科技產品氣冷式散熱模組,即由熱導管或VC(均熱板)搭配風扇,藉由風扇轉動吹過(魚者)片,將CPU所產生的熱帶離伺服器,但爲數衆多的風扇同步運轉過程中會產生高分貝噪音,同時也會有粉塵問題,影響散熱效果,加上氣冷散熱另一個缺點就是能耗較高,資料中心能耗指標數據爲PUE,氣冷式散熱的PUE(Power Usage Effectiveness即電力使用效率)約爲1.69,也就是資料中心運算設備使用100W的電力,則需額外耗費69W在散熱設備上,不僅無法滿足解熱需求,亦不符合ESG規範,近幾年各大散熱廠開始轉向整合CDU(Coolant Distribution Unit)控制、「電源管理」、「氣冷散熱」及「液冷散熱」等系統的全方位散熱解決方案。(3-1)