OpenAI開戰小模型,GPT-4o mini成本再降60%

“小模型”戰況突然變得激烈起來,無法做到便宜又好用的公司恐怕要掉隊了。

7月19日,OpenAI突然官宣並上線了一款“小模型”GPT-4o mini,被團隊描述爲最智能、最實惠的模型,其性能和價格均已趕超GPT-3.5 Turbo。

作爲直觀對比,GPT-4o mini輸入價格爲15美分/百萬Tokens,輸出價格爲60美分/百萬Tokens。而曾被視爲OpenAI內部最輕量級且高性價比的GPT-3.5 Turbo,其輸入價格爲50美分/百萬Tokens,輸出價格爲150美分/百萬Tokens。

至此,OpenAI“小模型”API價格再降至少60%。

性能方面,該模型支持128K上下文輸入以及16K輸出。OpenAI的基準測試顯示,除了GPT-3.5 Turbo,它的性能還超過了Claude 3 Haiku和Gemini 1.5 Flash這兩種之前最便宜、最好的模型。

GPT-4o mini的高性能來源於GPT-4o,這是OpenAI目前最快、最強大的旗艦大模型。OpenAI在5月的一次直播活動中發佈了GPT-4o,“o”代表omni(全能的),寓意了該模型對多模態的注重。彼時,團隊表示GPT-4o對音頻、視頻和文本等多模態理解與生成功能進行了改進,能夠以更高的速度和質量處理50種不同的語言。

目前,GPT-4o mini API接口已開放,支持文本和視覺,未來還將融入文本、圖像、視頻和音頻的輸入和輸出。它將於當地時間週四向ChatGPT的免費用戶、ChatGPT Plus和團隊訂閱者開放,ChatGPT企業用戶將於下週開放。

GPT-4o mini發佈後,山姆·奧特曼在推特上發文爲自家產品站臺,“通往智能的成本,便宜到不值得計量。”他概括了GPT-4o mini最直觀的特點:便宜的價格,MMLU(Massive Multitask Language Understanding/大規模多任務語言理解)得分82%,性能超快。

山姆幾乎不遺餘力強調這一點。他在另一條推文中寫道,早在2022年,世界上最好的模型是text-davinci-003,它比GPT-4o mini差得多,但成本要貴上100多倍。

性能提升與成本下降正是OpenAI在當前研發進展中所強調的。公司在一份新聞稿中表示,“在過去的幾年裡,我們見證了人工智能的顯著進步,同時也見證了成本的大幅降低。我們致力於在提高模型性能的同時繼續降低成本。”

公司設想未來,模型將無縫集成到每個應用程序和每個網站上。以GPT-4o mini爲代表的“小模型”將爲開發人員更高效、更經濟地構建和擴展強大的AI應用鋪平道路。“人工智能的未來將變得更容易獲得、更可靠,並嵌入到我們的日常數字體驗中。”

通過提效降本促進大模型服務普及,已經成爲大模型公司的共識。

今年上半年以來國內掀起的API價格戰正是這個趨勢的縮影。而除了大模型推理成本的逐年自然下降,以壓縮和蒸餾等技術思路做“小模型”也是其中一個重要方向,海外的Mistral AI以及國內的DeepSeek、面壁智能都有相應成果產出。

這一方面是爲了推動開發者先用起來,另一方面也是落地端側設備的必要歷程。在這一點上,三星和蘋果兩大廠商已經在今年顯示出了野心,智能硬件或將成爲大模型最好的落地場景之一。

這意味着,在下一階段,通用大模型公司不僅要按照Scaling Law(規模法則)繼續推進大模型的智能提升,更要掌握把模型做小的能力,以覆蓋更多用戶和應用場景。這又將是另一個能力維度的極限較量。