字節跳動大模型首次全員亮相:價格低99%,沒有參數規模和跑分

字節跳動,終於摘下了自家大模型的神秘面紗。

就在剛剛,旗下的火山引擎第一次正式亮相了豆包大模型家族:一口氣直接祭出了9個成員。

其中,大模型家族中最爲核心的便是豆包通用模型,分爲兩個尺寸:

令人非常意外的是,作爲大模型亮相的發佈會,火山引擎與其他大模型廠商的“路數”截然不同——

沒有榜單分數,沒有參數規模!

而且價格,更是成了讓現場觀衆“哇聲一片”的大亮點,和其它大模型相比:

做個簡單的換算,就是1元=1250000tokens!

主打的就是落地效果,讓人人都能用起來纔是硬道理。

爲何會如此?縱觀整場發佈會,可以總結火山引擎此舉背後的邏輯爲:

據瞭解,豆包大模型自去年8月份上線以來,其每天平均處理的token數量高達1200億,相當於1800億的漢字;每天生成圖片的數量爲3000萬張。

不僅如此,豆包大模型家族還會在包括抖音、今日頭條等在內的50多個場景中進行實踐和驗證。

因此,我們可以把火山引擎在大模型性能上的路數,視爲用“左手使用量,右手多場景”的方式反覆打磨而來。

一言蔽之,大模型好不好,用一下就知道了。

例如此前各家大模型都在卷的超長上下文窗口這件事上,其實豆包通用模型這次所發佈的128K,在數據上並沒有很驚豔。

但這個量級對於日常的使用來說是已經足夠的,所以字節跳動便將更多的精力放到了“如何用好”,也就是此次提到的精調。

例如我們在一篇20萬字文章的隨機一個位置,插入與原文無關的句子:

然後將文檔上傳給豆包,讓它基於這篇文章來回答“高端的獵人會以什麼姿勢出現”,它就能精準的根據我們插入那句話來作答。

由此可見,在128K長上下文窗口+精調加持下的豆包通用模型,已經是可以精準應對超長文本的任務了。

不過這也僅僅是此次火山引擎大模型能力的一隅,我們繼續往下看。

除了文本對話之外,語音,也是豆包大模型家族中重要的組成部分,與之相關的成員就有三位:

例如在語音合成這件事上,豆包的大模型現在主打的就是一個超級自然、更像人;話不多說,我們直接聽一下:

視頻地址:https://mp.weixin.qq.com/s/_mycwh_cJ5mS2bKuATW8cg

不難聽出,AI合成的說話效果已經是逼近真人的水平,不再是以往冷冰冰的“一聽就是AI”。

而且它還能根據上下文來把控說話過程中的停頓感和情緒等等;多種語言切換也不在話下。

據瞭解,火山引擎依託大模型構建的音色矩陣,還能表現出哭腔等更加複雜的人類情緒;若是讓這樣的AI給你“唸書”聽,那妥妥就是沉浸式的了:

視頻地址:https://mp.weixin.qq.com/s/_mycwh_cJ5mS2bKuATW8cg

在克隆聲音方面,豆包聲音復刻模型背後的MegaTTS技術這次也有了新升級——

在音色相似度、聲音自然度和多語種表現力上都有了大幅的能力提升。

同樣的,我們還是直接來聽一下效果:

視頻地址:https://mp.weixin.qq.com/s/_mycwh_cJ5mS2bKuATW8cg

如何?是不是原聲音和克隆出來的聲音真假難辨了?

更重要的是,無論是克隆多麼怪異或多樣的原聲,僅需5秒!並且現在在豆包APP上就可以實現:

視頻地址:https://mp.weixin.qq.com/s/_mycwh_cJ5mS2bKuATW8cg

由此一來,以後若是在工作上遇到需要用自己的聲音“出鏡”的事情,即便不會說外語也是不用怕了。

在語音識別方面,在升級的豆包大模型能力加持下,即便是在嘈雜的環境之下,也可以根據上下文進行絲滑的對話。

例如我們就在放英文歌的環境中,同樣用英語與豆包做了交流:

視頻地址:https://mp.weixin.qq.com/s/_mycwh_cJ5mS2bKuATW8cg

據瞭解,豆包語音識別模型相比小模型,識別錯誤率已經降低了30%;在音樂、科技、教育、醫療等垂直領域識別錯誤率更是降低50%以上。

但如果只是上述這樣簡單的對話交流,或許有些過於單調、莫得感情。

而豆包大模型家族中的另一位成員——角色扮演模型,恰好解決了這個問題。

例如我們可以跨時空跟李白對話一番:

視頻地址:https://mp.weixin.qq.com/s/_mycwh_cJ5mS2bKuATW8cg

具體而言,這個功能是豆包APP中的智能體,使用的是升級後的豆包角色扮演模型,加強了它更個性化的人設遵循、更自然的聊天和更好的共情能力。

從上面的例子中,我們就能感受到“AI李白”不僅說話的風格富有詩意,對話內容也是高度相扣。

而諸如此類的智能體,豆包APP裡可謂是數不勝數,比如霸道校草、狠辣世家獨女、知心姐姐、財神……嗯,有點意思。

總而言之,現在跟豆包交流起來的整體感覺,就是越來越像人了。

除此之外,豆包大模型在文生圖等能力上也做了升級;這個功能可以在對話窗口直接輸入prompt,也可以在智能體廣場中選擇自己喜歡的類型。

同樣的,升級後的效果如何,我們還是直接上測試的生成結果:

當然,如果沒有自己喜歡的智能體,豆包APP中也支持DIY,只需簡單幾個步驟就能創建的那種。

而對於在學習和工作中更爲實用、功能更加複雜的AI應用,此次火山引擎也公佈了一站式AI應用開發平臺釦子(coze)背後的大模型:

在使用方面,依舊是主打一個簡單、高效:無論你有沒有編程背景,都是“一句話+點點點”的事情。

不論你有什麼樣的需求,似乎總有一款釦子bot能夠滿足你。

例如想快速在arXiv上找到想要搜索的論文,那麼我們只需在創建智能體的時候填寫需求即可:

即使後續過程中不會優化prompt也沒有關係,釦子平臺會一鍵自動幫你生成:

如果想讓AI智能體的能力更加彪悍,我們還可以在海量插件中選擇適合自己需求的一個或多個插件:

在插件之外,釦子平臺也從更多的維度提供了優化的方案,例如工作流、觸發器、變量、數據庫、長期記憶等等,讓AI應用可以變得更加個性化和本地化。

而上述的整個過程,也僅僅是幾分鐘的事情而已。

不難發現火山引擎已經在To C的大模型應用上做到了高效且方方面面,但與此同時,在To B上,火山引擎亦有大動作。

火山引擎於去年6月份發佈的大模型服務(MaaS)平臺——火山方舟,今天正式步入2.0時代。

特點上同樣是沿襲高效、多樣、簡易和安全的特點,主打的就是讓企業通過一站式的方式讓大模型應用快速落地。

從整體功能和流程上來看,企業使用火山方舟可以分爲四步。

第一步:挑選模型

企業首先要做的就是根據自己的業務需求,在模型廣場中的衆多“頂流”大模型裡pick適合自己的那款。

第二步:體驗模型

適不適合自己的業務,還是得上手體驗才能知曉。

因此火山方舟平臺也給企業發放“體驗卡”,可以快速體驗各個模型的實際表現效果,探索它們在語言、圖像等方面的能力。

第三步:加工模型

企業在體驗完心儀的大模型之後,火山方舟還提供“加工處理”的服務。

具體而言,就是通過專業的訓練、推理、評測與精調功能,快速構建並使用專屬大模型服務。

第四步:模型上崗

在一切工作準備就緒之後,就可以真正地讓心儀的大模型去“上崗”了。

整個過程看下來,火山方舟就宛如一個大模型工廠,不僅提供原料,還包攬了加工和售後的工作。

而深入到具體的操作上,基於火山方舟的升級,火山引擎還正式發佈了釦子專業版,是一個企業級的AI應用開發平臺。

它的一大特點便是在釦子可視化靈活編程智能體的能力基礎之上,還提供了企業級SLA和多種高級特性。

這麼做的目的還是讓AI應用的落地變得更加簡單,也有助於企業將精力更多地聚焦在創新。

那麼最後一個問題是:畢竟要面向的是產業,火山方舟,它夠靠譜嗎?

對此,火山引擎也給出了它在穩定性和安全性等方面的解法。

首先是在算力層面,火山方舟依託火山引擎的海量GPU資源池和訓推一體潮汐調度能力,通過軟硬一體的系統優化,可在2分鐘內,完成一千張GPU卡從訓練狀態到推理serving狀態的彈性調度,可以有效支撐突發流量和業務高峰,併爲企業降低成本。

其次在算法層面,火山方舟支持豆包大模型同款的SFT訓練引擎,精調完成的模型,3秒鐘即可調度爲可serving狀態,精調後模型在TPM支撐能力、推理延遲和價格等方面,和基礎模型沒有差別,極大地方便您進行後續效果評估、線上業務serving灰度和逐步放量,提升大模型精調算法的迭代效率。

最後在安全層面上,火山方舟主打的就是一個公開透明,通過自研安全沙箱將prompt數據端到端地加密保護起來,防止在訓練和推理階段的惡意攻擊和數據泄露,並且提供透明審計中心,實現數據流的可控和可審計。

當然,每個企業用戶定然希望自己的大模型服務是獨一無二的,火山引擎的三大插件正是可以提供差異化的關鍵點:

總而言之,火山引擎此次不論是發佈的豆包大模型家族,還是升級的火山方舟,甚至是正常發佈會的基調,所劍指的目標都非常的明確和清晰。

沒錯,就是“用起來,纔是硬道理”。

而這也正是火山引擎與衆多大模型玩家在戰略上最明顯的差異所在——

大多數玩家都是將大模型和應用產品一道發佈;而火山引擎則是恰恰相反,用起來了之後再做正式的全面發佈。

究其原因,也正是我們最開始提到的那句話:

至於爲什麼不放出測評榜單和參數規模等業界似乎早已習慣做比較的指標,在量子位與火山引擎智能算法負責人、火山方舟負責人吳迪的交流過程中,他給出了一個非常直給的解釋:

回答很簡單,很自信,但這種底氣又是從何而來?

一是場景。

大模型需要用戶的反饋來優化已經是業界達成的共識,在這方面,火山引擎依靠字節跳動有着天然的優勢。

據瞭解,豆包大模型是通過字節跳動內部50+業務、多場景實踐驗證而持續做着迭代和優化,可以說是舉整個公司的場景All in到大模型裡面了。

二是技術。

字節跳動的推薦算法也是業界公認的強者,而火山引擎目前的核心算法服務團隊(由火山引擎大模型算法服務負責人王科帶隊),正是打下字節跳動起家的技術的原班人馬。

其技術實力,可見一斑。

三是市場。

據瞭解,豆包APP累計下載量已經超過了1億,受用戶歡迎程度可見一斑。

在To B方面,火山引擎也與智能終端、汽車、金融、消費等行業的衆多企業已經展開了合作,包括OPPO、vivo、小米、榮耀、三星、華碩、招行、捷途、吉利、北汽、智己、廣汽、東風本田、海底撈、飛鶴等。

並且火山引擎在以使用量來優化大模型這條路上並不是僅依靠自身龐大的業務場景,而是與上述合作伙伴們一道共同來打磨,形成了一個閉環的過程。

那麼最後,我們又該如何評價火山引擎的大模型?

或許就是:更大用量、更低價格、更多場景、更懂人、更聰明。

而這場發佈會的主旋律也再次印證了當下大模型時代“應用爲王”的趨勢——

誰能用得更好,誰就能笑到最後。