大模型“免費”送,廠商們圖什麼?

2024年618,傳統電商行業不再喧囂,但大模型市場卻開啓了慘烈的“價格戰”,甚至部分企業直接免費送大模型服務。

5月15日,字節跳動宣佈,豆包主力模型企業市場定價爲0.0008元/千Tokens,0.8釐可處理1500多個漢字,比行業便宜99.3%。

一週後,阿里雲也對外宣佈,通義千問GPT-4級主力模型Qwen-Long的API輸入價格降至0.0005元/千Tokens,直降97%。

阿里雲官微

阿里雲捲入“價格戰”後,百度、騰訊雲、科大訊飛等企業也接連宣佈自家的大模型降價。其中百度甚至宣佈,兩款基礎模型可免費調用。

不可否認的是,隨着技術逐漸成熟,大模型的成本正不斷下探。爲了儘快俘獲更多企業客戶,拓寬市場影響力,上游算力提供商確實需要盡力降價。

然而需要注意的是,儘管大模型成本正逐步下探,但目前大部分企業的大模型業務依然面臨算力、人力成本高企的挑戰,沒能盈利。在此背景下,上游算力提供商不斷降價,甚至免費送大模型,顯得十分反常。

這種非理性的價格戰,其實凸顯出了上游企業亟待通過讓利,打通大模型商業閉環的內在焦慮。

01 價格戰背後,大模型商業困局難解

2023年以來,隨着ChatGPT爆火,諸多科技公司都看到了AI大模型蘊含着巨大的商業價值,因而加碼相關業務。2024年3月,國家數據局局長劉烈宏透露,中國10億參數規模以上大模型數量已超100個。

然而隨着越來越多企業入局相關產業,大模型商業模式不健全,成本高、落地難、下游企業持觀望態度等問題愈發凸顯。

由於需要採購高性能計算機,並且需要進行模型訓練,大模型的成本異常高昂。以OpenAI爲例,其訓練GPT-4的FLOPS約爲2.15e25,一次訓練成本爲6300萬美元。The Information報道,2022年,OpenAI虧損約爲5.4億美元左右,約擴大一倍。

目前,大部分企業都意識到了大模型的參數越多,商業想象力越大,因而持續加碼模型訓練。不過問題也隨之而來,那就是大模型僅僅問世兩年時間,下游創收手段十分有限。

整體而言,大模型有兩種創收模式,一是直接向用戶收取訂閱費,二是向開發者收取API調用費。比如,2023年初,OpenAI推出了會員訂閱服務ChatGPT Plus,費用爲20美元/月,可使用基於GPT-4的模型,並且提供更快的響應時間、優先訪問等權限。

不過,據Reddot聯合創始人Pierre Herubel測算,即使以每月擁有100萬訂戶估計,ChatGPT Plus每年或只能爲OpenAI帶來2.4億美元左右收入,很難幫助公司扭虧爲盈。

因此,目前以OpenAI爲代表企業的發力重點,是向企業收取API調用費。參照雲計算的經驗,外部的企業從零開始訓練大語言模型非常困難,傾向於採購成熟的AI大模型技術,一旦這些企業探索出具備想象力的商業模式,即可反哺上游算力提供商,進而實現多方共贏。

對此,2023年11月,百度創始人兼CEO李彥宏曾表示,不斷地重複開發基礎大模型是對社會資源的極大浪費,“AI原生時代,我們需要100萬量級的AI原生應用,但是不需要100個大模型。”

02 算力提供商作出表率,但B端企業仍持觀望態度

由於大部分大模型算力提供商都是平臺型企業,推出大模型技術後,這些企業紛紛在內部試水相關技術的商業化,以圖給下游客戶做出商業化表率。

比如,2023年阿里雲峰會上,時任阿里巴巴集團董事會主席兼CEO、阿里雲智能集團CEO張勇表示:“阿里巴巴所有產品未來將接入‘通義千問’大模型,進行全面改造。”

以釘釘爲例,接入大模型後,其支持AI生成推廣文案、繪圖方式創建應用、視頻會議中生成摘要等功能。釘釘總裁葉軍認爲,大模型將會讓釘釘的收入增長百分之幾十。

無獨有偶,過去一段時間,騰訊也積極探索AI技術的商業化應用。2023年財報中,騰訊對外表示:“廣告AI模型的改進顯著提升了精準投放的效果…… 這些發展帶動了高質量的收入來源,推動毛利增長 23%。”

自有業務挖掘出AI的商業價值後,上游算力提供商正致力於針對垂直行業的細分需求,提供定製大模型能力。

比如,2023年6月,騰訊雲宣佈開啓“騰訊雲行業大模型生態計劃”,致力於推進大模型在產業領域的創新和落地。據悉,騰訊雲已爲傳媒、文旅、政務等10餘個行業提供了超50個大模型行業解決方案。

然而需要注意的是,平臺型企業大多擁有自研大模型技術,無論是試錯還是使用成本都更低,往往只會對外宣傳商業路徑清晰的大模型落地案例。

反觀外部的企業需要採購上游的大模型技術,探索成本相對更高,並且商業模式不清晰,很難擁有足夠的積極性。見實團隊披露的《AI應用需求與付費意願調研報告》顯示,46.2%的企業AI預算在1萬元以下,另有22.2%和24%的企業預算分別爲1萬-5萬元以及5萬元-10萬元,這些中腰部企業沒有足夠的預算探索AI。

此前,大部分主力模型產品的API輸入價格不菲,比如,Qwen-Long爲0.02元/千tokens,1萬元只可以購買5億個tokens。如果一個產品有500萬月活,1萬元的預算,一個月平均只能供每個用戶使用100個tokens,顯然不夠。

03 成本雖屢屢下探,但算力提供商已急不可耐

顯而易見,當下限制大模型B端商業化落地的主要障礙,就是API成本過高,限制了B端企業探索相應的商業閉環。因此,目前算力提供商的發力方向,就是致力於通過技術手段,壓低大模型的成本,降低B端企業的使用成本。

開頭提到,字節跳動旗下豆包主力模型企業市場定價爲0.0008元/千Tokens,比行業便宜99.3%。對此,火山引擎總裁譚待表示:“豆包模型的超低定價,來源於我們有信心用技術手段優化成本,而不是補貼或是打價格戰爭奪市場份額。”

無獨有偶,2024年5月6日,深度求索開源了第二代MoE模型DeepSeek-V2,性能更強,訓練成本更低。據悉,DeepSeek可節省42.5%訓練成本,減少93.3%的KV緩存,最大吞吐量提高5.76倍。整體而言,DeepSeek-V2消耗的顯存(KV Cache)只有同級別Dense模型的1/5-1/100。

不過,這並不意味着當下大模型行業的價格戰十分正常。2024年5月,談及大模型的發展趨勢時,零一萬物CEO李開復接受採訪時表示:“未來整個行業的推理成本每年降低10倍是可以期待的,而且這個趨勢是必然的。”未來,大模型的成本將呈階梯狀下探,但目前大模型的價格卻斷崖式下探,甚至部分企業免費送,降價幅度遠超上游成本降幅。

上游算力提供商之所以如此內卷,很大程度上都是希望俘獲更多的B端企業,一方面實現規模效應,另一方面,讓B端企業無負擔地探索良性的商業模式。對此,譚待表示:“大的使用量,才能打磨出好模型,也能大幅降低模型推理的單位成本……大模型從以分計價到以釐計價,將助力企業以更低成本加速業務創新。”

儘管激烈的價格戰之下,大模型已經進入“免費時代”,但其實大部分上游算力提供商爲了後續創收,都留有更爲隱晦的收費手段。

目前,大部分大模型僅推理用的token降價,而訓練和部署成本依然不低。比如,阿里的qwen-turbo 模型百萬個token推理只要2元,若是訓練,就需要30元,部署時,每月需要2萬元。

由此來看,大模型進入“免費時代”,很大程度上其實只是一個宣傳意義上的噱頭。如果下游企業想要用上成套大模型服務,那麼不能不付出更高的使用成本。

而之所以上游算力提供商僅僅降低推理用的token成本,主要是因爲通過內部應用,其對於大模型的商業價值足夠自信,希望降價的噱頭起到引流的作用。

參照雲計算價格戰的經驗,此番大模型價格戰或許可以吸引更多下游企業認真審視大模型,有望基於相關技術探索出更多良性的商業模式。