智算中心太“多”,大模型不夠用了 | 鈦媒體深度
英偉達芯片“倒爺”們,開始不發朋友圈了,
2023年大模型火熱的時候,“倒爺”們朋友圈的畫風是“欲購從速、30%定金,有實力的老闆來!”到了2024年就變成了“現貨現款、物美價優。”甚至有一批人已經黯然退場。
以H100整機價格爲例,官方售價爲30萬美元左右,水貨一度高達300多萬人民幣,超過50%的利潤空間,讓不少人趨之若鶩,但是現在價格已經回落到230萬人民幣左右,再倒賣也就沒什麼利潤空間。
其中既有英偉達芯片更新換代的原因,基於Blackwell架構的GB200等新品單位算力成本更低;也有算力行業從過熱到迴歸理性的必然,有了GPU並不意味能轉換成大模型算力,大家對這一現實的理解,是用真金白銀砸出來的。
大模型之大,動輒需要64/128/256臺服務器(一臺服務器8張GPU卡)組成的算力集羣來訓練。對於志在基礎大模型的廠商來說,萬卡集羣成了入門門檻,不僅海外OpenAI、馬斯克的xAI等都在規劃十萬卡集羣,國內也同樣走在競逐十萬卡集羣的路上。
來自需求端的壓力,也正在重新校正AI算力產業,首當其衝的便是智算中心。作爲計算、存儲、網絡的集合體,智算中心直接反映大模型算力的行業現狀,而來自一線的聲音趨於一致:智算中心太“多”,大模型不夠用了。
缺算力是真的,空置也是真的
智算中心並不是絕對意義上的“多”,無論從各種視角看,真正適配大模型訓練的算力在未來一段時間仍有很大的缺口,大規模智算中心的建設不會停止。
以OpenAI爲代表,ChatGPT發佈兩年來,大模型產業發展的腳步似乎變慢了,不排除這是大模型新一輪爆發前的蟄伏,在“Scaling Law”(規模法則)信仰之下,xAI、Meta、OpenAI等巨頭都在積極佈局十萬卡乃至更大規模的智算集羣。
例如7月份,馬斯克宣佈位於美國田納西州孟菲斯市的超級集羣開始投入訓練,該集羣配備了10萬個英偉達 H100 GPU,被稱爲 “世界上最強大的 AI 訓練集羣”。兩個月後,馬斯克宣佈該集羣名爲 “Colossus(巨人)”,將在未來幾個月內再增加 10 萬顆 GPU,其中 5 萬顆將是更爲先進的英偉達 H200,Grok 3訓練預計在三到四個月內於該集羣完成,目標是12月發佈。
再看OpenAI,甚至因爲算力交付和“鐵桿盟友”微軟產生了分歧。此前微軟與 OpenAI 合作共建一個代號爲 “星際之門” 的巨型數據中心項目,項目預計成本超過 1150 億美元,旨在建設一個配備數百萬塊 GPU 的超級計算機。據報道,微軟計劃到2025年底向 OpenAI 提供約 30 萬個英偉達最新的 GB200。
但是奧爾特曼似乎對微軟的速度還不滿意,在完成66億美元的最新一筆融資後,OpenAI又與甲骨文達成合作,將在德克薩斯州的一個新數據中心租用服務器,該數據中心未來可容納數十萬個英偉達GPU。
圖片系AI生成
超大規模數據中心解決方案運營商秦淮數據對鈦媒體APP表示,公司堅定看多智算,預計2027年開始智算需求進一步爆發,到2030年100%的推理需求都需要由超大規模數據中心來完成。
賽迪顧問人工智能與大數據研究中心高級分析師白潤軒此前表示, 截至2024年上半年,國內已經建設和正在建設的智算中心超過250個,2024年上半年智算中心招投標相關事件791起,同比增長高達407.1%。
“這表明智算中心的建設在全國範圍內得到了廣泛的關注和支持。從2023年開始,各地政府加大了對智算中心的投資力度,推動了基礎設施的發展。”白潤軒說。
百度智能雲AI計算部負責人王雁鵬則表示,從需求側來看,十萬卡是今年大模型競爭的規模門檻,從技術角度來看,大模型算力基本估算爲模型的大小乘以所需要的數據量,“GPT4是萬億參數,大概用了2-3萬張H卡集羣訓出來GPT4,按照Scaling Law推算,GPT5的集羣卡數大概在十萬量級,可能是5-10萬之間,參數級別會提升大概3-5倍。”
然而,與萬卡算力集羣火熱相對應的,是大模型市場的“冷清”。
據經濟觀察報統計,截至2024年10月9日,網信辦共通過188項生成式人工智能備案,也就是有188個大模型可以上線提供生成式人工智能服務。但超過三成的大模型在通過備案後未進一步公開其進展情況;僅有約一成的大模型仍在加速訓練模型;接近一半的大模型則轉向了AI應用的開發。
這些跡象可以理解爲:大模型預訓練需求越來越集中了。
與此同時,國內市場相較於海外市場更復雜。相似之處是算力需求持續增長,不同之處是算力封鎖、生態不全,加之前期部分炒貨囤卡的行爲,這就導致了一種詭異的狀態——算力既緊缺又空置。因爲,“把GPU卡塞進機房”和“構建用於大模型訓練所需的算力集羣”,是兩個完全不同的概念。
但是,對於智算中心的空置率或者浪費程度,並沒有一個統一的答案。從鈦媒體APP獲得的一份資料可以有個大概感知:上半年國內已上線智算中心17億卡時,使用5.6億卡時,利用率32%;另有數據顯示,目前算力基礎設施行業的平均上架率不足 60%。
算力空置引起各方關注
“各地前期已經建設了一批智算中心,不管是國產卡還是英偉達的卡,這些集羣都不同程度上存在閒置問題,政府已經注意到了這些問題,智算中心的運營主體也也不少出現虧損,在算力挑戰短時間內很難解決的情況下,投資節奏上還是要有所把控。”一位接近政府的行業側人士對鈦媒體App提到。
國家層面先後推出了十餘項政策推進智算中心建設,例如“東數西算”“數字中國建設整體佈局規劃”等,但上述人士告訴鈦媒體App,最近發改委已經基本明確,如果還要進一步新建智算中心,而且是採購國外卡,能耗指標均不予批覆。如果採購國產卡,考慮支持國產創新,並且在東數西算的八大節點上,還可以安排能耗指標。
據瞭解,目前智算中心主要投資模式,一是政府投資建設,建設資金來自地方政府財政資金、專項債券發行等,建成後所有權歸政府所有;二是企業獨立投資建設,由企業聯盟、少數企業聯合、單獨企業等形式進行投資;三是高校或科研機構獨立投資建設,向師生、研究人員提供免費算力支撐,服務高校教育場景,這種情況下建設成本較低。
這其中,有不少智算中心向銀行貸款採購GPU卡,承諾兜底方都是幾家搞基礎大模型的公司,比如阿里巴巴、騰訊、百度等。銀行也很疑惑,大模型公司本身就有云基礎設施和大量GPU卡,絕大多數中間商的議價權和渠道能力還不如這些大廠,怎麼讓大廠們加錢採購?
鈦媒體APP獲悉,有地方政府開始斡旋,希望讓雲廠商租用閒置的智算中心算力。“我們都不知道國內還有這麼多卡,某種意義上,算力稀缺的背後存在一些資源錯配。”上述人士表示。
該人士還提到,政府意識到可能會有算力浪費的情況出現,但是,部分地方手握能耗指標,和供應商拉扯的時間較多,智算中心建得慢,而部分地方建設得快反而虧損,由此帶來的負面甚至引起了高層注意。
據悉,工信部日前面向六個城市定向下發了關於智算雲服務試點的批文,希望用公共雲的方式,解決前期各地方的智算中心建設問題,特別是國有資金建設的一些小散算力中心浪費問題。
近幾個月來,政府側已經出臺多項政策,正強調有序引導,出清落後產能。
例如《數據中心綠色低碳發展專項行動計劃》發佈,對數據中心行業的區域佈局、能效水效、綠電使用進行了嚴格、全面的規定,並提出“全面清理地方高耗能電價優惠政策”,輿論普遍認爲該政策將加速落後產能淘汰,從而改善行業供給結構,促進行業良性發展。
8 月 1 日,《公平競爭審查條例》正式實施,要求各地方政府“沒有法律法規依據或國務院批准,不得給予特定經營者稅收優惠”,這意味着盛行已久的地方“以稅引商”模式被按下了暫停鍵,企業將更關注經營本身,有利於行業從“卷價格”走向“卷創新”。
雲計算行業也看到了智算中心建設的問題。阿里雲智能科技研究中心主任安琳提到,目前有三種“萬卡集羣:
假萬卡集羣——公司確實有一萬張AI加速卡(GPU卡),但分佈在全國幾個不同的數據中心,每個數據中心有幾百張或幾千卡,加起來超過萬卡。這種集羣是“假萬卡集羣”。
僞萬卡集羣——擁有一萬張AI加速卡且部署在同一個數據中心,但訓練特定模型的時候,只有一部分卡實際參與訓練。例如:1000卡訓練A模型,2000張卡訓練B模型,3000張卡訓練C模型,4000張卡訓練D模型。這種萬卡集羣是“僞萬卡集羣”。
真萬卡集羣——單一集羣擁有一萬張AI加速卡(如GPU卡),部署在同一個數據中心,並且能通過大規模資源調度技術,讓萬卡作爲“一臺”計算機,單一模型能在這一萬張卡上同時進行訓練。正如100個昆明湖連起來,也訓不出一支航母艦隊,大模型也是如此,只有真正的萬卡智算集羣,才能訓練出國際先進的大模型。
有數據中心行業人士也表示,數據中心行業對內卷嚴重的感知非常明顯,比如很多數據中心企業無條件爲客戶預留資源;簽訂短期租約,客戶擁有隨時調價調量的權益;過度擴大責任範圍;招投標突破合理價格底線等等,這都是一些內卷帶來的亂象。
爲什麼大模型算力會閒置?
在回答這一問題之前,有必要捋清下大模型所需的算力類型。
目前大模型所需的算力主要有三種,其一是超大規模的大模型訓練,需要的算力集羣越來越大,智算中心供不應求;其二是常規的大模型訓練/微調,一般的裸金屬或者算力集羣都能滿足;其三是推理需求,用雲主機等都能滿足,未來需求有望穩定增長。
可以看出,除了第一種基礎大模型的訓練需求之外,其餘的大模型算力需求並不十分緊缺,不用最新的英偉達GPU卡,國產AI芯片也能頂上,企業可以在價格、成本、易用性等因素之間尋找平衡點。
ZStack CTO王爲提到了一個很有意思的現象,也是國內企業不得已爲之的權宜之計——他表示,企業對於AI的投入還是相對比較謹慎的,在很多場景下用消費級顯卡,很大程度上解決了大模型非預訓練的需求。
對於雲廠商而言,按照正常的生意邏輯,一邊買卡一邊以雲服務的形式賣出去,不會大肆囤卡,其他的囤卡行爲顯然沒有充分認識到,賣卡這門生意有多難。
租卡也是一種節省成本的方法,GPU正在更新換代,但不是簡單的付租金就行,雲廠商還要帶着工程團隊去做大量改造,估算地價、電價等,額外配置交換機、網卡、光纜等,任何資本支出都要盤算是否值得投入。
安琳進一步補充道,智算中心的三大主要門檻包括集羣網絡、任務調度、智能運維。王雁鵬也表示,國內構建10萬卡集羣面臨着三大難題,跨地域部署、多芯混訓以及集羣穩定性,這些難題包括技術和工程上的多重挑戰。
首先是網絡,大模型催生了一種全新的網絡需求,此前從未有過,也就沒有相應的成熟方案,市面上所有方案都是邊研發邊使用,可以說,網絡技術直接決定集羣規模能建多大。
“幾百G的帶寬,在每一個毫秒範圍內正向模型訓練帶寬全佔滿,下一個毫秒又反向全佔滿回來,在人類歷史上的通信,沒碰到過這種需求。這涉及到諸多軟件硬件,交換機、網卡芯片硬件和軟件設計,路徑選擇的算法、通信協議的加速。要幹這件事,網卡、交換機甚至中間用的光纜都得專門定製。”安琳說道,阿里雲AI高性能網絡架構HPN 7.0成果論文被SIGCOMM2024收錄,成爲SIGCOMM歷史上首篇關於AI智算集羣網絡架構的論文。
其次是調度,算力集羣規模小,網絡當然簡單,但是效率和規模就沒有競爭力,如何讓計算任務靈活的在硬件資源調度,資產利用率就能越高,算力價格就可以做到更低。
傳統思路是按照硬件資源做調度,先監測算力卡是否空閒,如果閒着了就給他扔一個任務過去,這是最簡單且效率極低的調度,雲計算行業早已經進化到按任務來調度,可以監測到每一張卡上每一個任務的進程,然後根據任務進程分配新的任務。
安琳強調,“不是簡單地給算力卡安排任務,而是把更細顆粒度的一個個不同的計算任務在這些卡間做調度,需要很多的工程技術能力積累,這也是爲什麼現在全世界做得好的AI公司,基本上都屬於雲計算公司。”
最後是運維,在以前的計算中,算力卡壞了可以很快將其隔離,然後繼續用其他卡運行,現在大模型有很多瞬時故障,在毫秒級時間有抖動,一次通信過程中的抖動和丟包,就會導致GPU利用率下降50%。據安琳介紹,阿里雲已經升級到毫秒級檢測,及時從集羣裡隔離故障算力。
此外,國內企業構建算力集羣還面臨着一個現實的困難:芯片。
國內企業面臨算力供應不穩定的挑戰,較難構建單一大規模訓練集羣。現實情況是,企業內部會出現同一廠商不同代際芯片,或者不同廠商芯片共存的情況。這些芯片如何進行混部訓練,同時保證混部訓練的效率也是難題。
此外,隨着芯片集成度的不斷提高,芯片的故障率也會相應上升,英偉達H系列芯片的故障率比A系列高3-4倍。並且算力集羣規模越大,其故障率就越高。按照H系列芯片的故障率水平,十萬卡集羣每20分鐘就會出現故障。較高的故障率對穩定性訓練保障提出了更高的要求。
王雁鵬介紹,包括百度在內的國內廠商正在破解這些難題。在跨地域方面,針對由於傳輸距離變長所產生的高延遲,百舸4.0已經構建了十萬卡級別的超大規模HPN高性能網絡,通過提供更高效的拓撲結構、更優的多路徑負載均衡策略及通信策略,能夠實現幾十公里的跨地域通信。同時,在通信效率上,通過優化的擁塞控制算法、集合通信算法策略,將帶寬有效率提升至95%,實現了完全無阻塞。最後,通過10ms級別超高精度網絡監控,保障了網絡穩定性。
智算中心,從內捲走向有序
對於智算中心的建設是否過於超前,不同人有不同看法。一方認爲,國內智算中心還無法擺脫海外生態體系,需要三到五年的過渡期,在此過程中,大規模加速建設智算中心必然會帶來大量浪費。
另一方認爲,海外封鎖只會愈發嚴峻,國產算力生態必須加速成熟,相比於國家戰略的競爭,超前建設帶來的一些小問題是可以接受的。有消息顯示,受到美方要求,臺積電被迫採取臨時策略,將暫停向大陸AI算力芯片客戶供應7nm工藝及以下更先進製程的代工服務。
目前來看,囤積英偉達卡的確帶來一部分算力浪費,如上所述,很多購卡方不具備智算中心所需的網絡、調度和運維能力。一位智算中心技術專家直言,“之前太多的投機倒把,很多都不是幹這個行業的,覺得囤貨就能掙錢,把它塞到一個機房裡面去,穩定性,各種容錯,亂七八糟的問題都解決不了,造成了很多浪費。
國產算力也同樣存在問題,該專家談及國產AI算力的浪費時感慨,“華爲的運營能力太強,在大家還沒有準備好用國產卡和用華爲的時候,花了大力氣搞算力場、智算中心,運營商建了大幾萬卡的集羣,它的芯片距離客戶開箱即用,到真正能用好還有一些距離,接下來會有更多的國產芯片進來,這個問題會進一步放大。”
“但是對於整體國產卡這件事情我比較樂觀,基於大模型時代算力格局變化。原來的模型非常分散,CUDA生態非常厲害是因爲要兼容那麼多模型,現在大模型比較收斂的情況下,大家的主流框架是一樣的;同時英偉達又這麼貴,再考慮到算力可獲得性問題,大家就會更願意嘗試用國產卡。”他補充表示。
近日,《科技日報》也頭版刊登了全國政協委員張雲泉署名文章《智算中心建設不可盲目跟風》,文章強調,智算中心的建設需要鉅額資金投入,而投資回報卻不確定。
文章表示,由於智算技術更新迭代很快,智算中心的生命週期一般只有5至10年,如果沒有強大的技術儲備和升級能力,就可能陷入不斷投入卻無法跟上技術發展步伐的困境。另外,智算中心的運營管理離不開專業的技術人才和高效的管理團隊,否則就可能無法發揮其應有作用,甚至出現設備閒置、資源浪費等問題。由此看來,智算中心該不該建、能不能建、什麼時候建、建在哪裡,需要科學、穩慎決策,絕不能頭腦發熱、一哄而上“趕時髦”。總的原則應當是,在市場需求明確且可持續的情況下,因地制宜、按需建設、適當超前。
一些地方也加強了對智算中心運營的要求,比如山東德州價值約2億元的“全國一體化工業大數據山東雲中心省會經濟圈區域分中心數據機房‘德智未來’智算中心項目”,就在招標文件中明確寫明瞭“採用設計施工採購運營一體化的模式建設”,要求運營期限不低於5年,並規定了項目驗收投運後每年算力的最低收益。
王爲也表示,從政策角度上看,政府對智算中心的要求比以前多,以前是先把智算中心建起來就行,現在建設初期就會找好的運營方,或者建設與運營一體,保證算力的使用率。
“去年算力消耗以訓練爲主,目前看消解不了算力中心的算力,很多大模型廠商手裡囤的算力也不少,一些大模型廠商也減少了預訓練,不太需要對外租很大的算力了。現在很多智算中心也開始找一些推理的場景,研究落地應用,使用端會更分散,整個市場應該會更健康。”他說。(本文首發於鈦媒體APP,作者 | 張帥,編輯 | 蓋虹達)