大模型爲何成耗能大戶

隨着人工智能技術快速發展,人工智能(AI)大模型的運行消耗問題受到越來越多關注。大模型爲何成了耗能大戶?能耗問題會不會成爲人工智能發展的“絆腳石”?如何解決能耗問題?

耗電耗水量大

人工智能大模型到底有多耗能?據斯坦福人工智能研究所發佈的《2023年AI指數報告》,AI大語言模型GPT-3一次訓練的耗電量爲1287兆瓦時,大概相當於3000輛特斯拉電動汽車共同開跑、每輛車跑20萬英里所耗電量的總和。報告同時提出,AI大語言模型GPT-3一次訓練,相當於排放了552噸二氧化碳。

國外研究顯示,一次標準谷歌搜索耗電0.3瓦時,AI大語言模型ChatGPT響應一次用戶請求耗電約2.96瓦時,在AI大模型驅動下的一次谷歌搜索耗電8.9瓦時。

除了耗電,另有研究顯示,AI大語言模型GPT-3在訓練期間耗水近700噸,每回答20個至50個問題就要消耗500毫升水。弗吉尼亞理工大學研究指出,Meta公司在2022年使用了超過260萬立方米的水,主要作用是爲數據中心提供冷卻。

據瞭解,人工智能大模型GPT-4的主要參數是GPT-3的20倍,計算量是GPT-3的10倍,能耗也隨之大幅增加。

華泰證券研報預測,到2030年,中國與美國的數據中心總用電量將分別達到0.65萬億千瓦時至0.95萬億千瓦時、1.2萬億千瓦時至1.7萬億千瓦時,是2022年的3.5倍和6倍以上。屆時,AI用電量將達到2022年全社會用電量的20%和31%。

爲何如此耗能

爲什麼人工智能大模型如此耗能?AI技術迅速發展,對芯片的需求急劇增加,進而帶動電力需求激增。同時,對AI進行大量訓練,也意味着需要更強的算力中心和與之匹配的散熱能力。在AI快速迭代的道路上,電力和水資源的消耗也在快速增加。因爲很多數據中心全年無休,發熱量巨大,大規模電耗和水耗主要來自於冷卻需求。

相關統計顯示,數據中心運行成本的六成是電費,而電費裡的四成多來自冷卻散熱,相應也會帶來巨量冷卻水的消耗。風冷數據中心六成多的耗電量都會用在風冷上,只有不到四成電力用在實際計算上。如今,全球數據中心市場耗電量是10年前的近10倍。

能耗問題會不會成爲人工智能發展的“絆腳石”?英偉達首席執行官黃仁勳曾提到,AI和算力耗能巨大,但由於計算機性能飛速增長,計算會更加高效,相當於更節省能源。當前,我國實施嚴格的能耗雙控政策,無論是AI大模型本身還是其應用行業,對單位GDP能耗來說均有明顯降低作用。

從整體能耗來看,AI大模型帶來的效率提升也會抵消一部分能耗增長。隨着綠電廣泛應用,再加上我國逐步由能耗雙控向碳排放雙控政策轉變,可再生能源對未來AI大模型發展的支撐能力也會越來越強。

此外,相較於其他國家而言,中美等能源消費大國和數據大國,具備更好發展AI大模型的資源條件和基礎。

怎樣應對挑戰

據預測,到2025年,AI相關業務在全球數據中心用電量中的佔比將從2%增加至10%。到2030年,智能計算年耗電量將達到5000億千瓦時,佔全球發電總量的5%。因此,在大力發展AI大模型的同時,必須提前做好相關規劃佈局,以提供必要的電力和水資源等技術支撐。

有專家認爲,人工智能的未來發展與狀態和儲能緊密相連。因此,不應僅關注計算力,而是需要更全面地考慮能源消耗問題。OpenAI創始人奧爾特曼認爲,未來AI技術取決於能源突破,更綠色的能源尤其是核聚變或更便宜的太陽能以及儲能的可獲得性,是人工智能發展快慢的重要因素。

爲降低電力和水資源消耗,很多企業在嘗試採用各種方法爲數據中心散熱。例如,微軟曾嘗試部署海下數據中心,臉書(Facebook)數據中心選址北極圈附近,阿里雲千島湖數據中心使用深層湖水製冷等,我國很多企業則把數據中心佈局在水電資源豐富的西南地區。

目前,可通過算法優化、開發和使用更高效的AI專用硬件、調整神經網絡訓練過程以優化計算資源等技術方式來降低AI大模型的能耗,並更多采用自然冷卻、液冷、三聯供、餘熱回收等新興節能技術,提高製冷效率以降低數據中心能耗。從技術未來發展方向上看,光電智能芯片也有助於解決AI大模型的電耗和水耗問題。

AI大模型的發展,不能僅符合高端化、智能化的要求,更要符合綠色化的發展要求。爲此,從國家和地方層面上看,爲緩解AI大模型發展所帶來的電力和水資源衝擊,有必要將數據中心行業納入高耗能行業管理體系,並提前做好相關規劃佈局。同時,加強資源整合,充分發揮人工智能大模型和數據中心的效能,通過使用效能下限設置等方式,確保其自身的電力和水資源使用效率。還應嚴格落實國家能耗雙控及碳排放雙控政策,並將其碳足跡與水足跡納入行業考覈範圍,切實推動碳足跡與水足跡逐步降低,以應對日益增長的AI大模型電力和水資源需求。

(本文來源:經濟日報 作者系中國宏觀經濟研究院能源研究所研究員 崔 成)