突破數據牆!27歲華裔MIT輟學創業8年,年化收入逼近10億
新智元報道
編輯:Aeneas 好睏
【新智元導讀】震驚!就在剛剛,Scale AI創始人Alexandr Wang宣佈:公司的年化收入已經達到近10億美元。OpenAI的年收入,也僅僅是35-45億美元。數據牆愈漸緊逼的今天,Scale AI早早踩對了風口,如今終於一飛沖天了。
就在剛剛,創業成功的27歲億萬富翁Alexandr Wang宣佈——
Scale AI的年化收入,幾乎達到了10億美元!
這個數字,足夠震驚整個硅谷的。
這Scale AI是什麼來頭,能在營收上取得如此驚人的成績?
原來,它主攻的就是如今AI模型的一大軟肋——對數據的巨大需求。
Scaling Law的存在意味着,隨着模型變大,對數據的需求也呈現指數級增長,越來越多的人擔心大模型會耗盡可用數據。
Scale AI的主營業務——做AI模型的「數據工廠」,恰好處於這個風口之上。
如果能攻克「數據牆」這個AI進步的巨大瓶頸,Alexandr Wang理所當然會賺得盆滿鉢滿。
在AI浪潮中,賺得盆滿鉢滿
生意能做這麼大,源於Scale AI越做越成功的一項大業務。
在AI生態圈中,爲大公司提供基礎設施或服務支持的業務,市場需求巨大。
Scale AI做的就是後者——爲這些公司提供人工數據標註員。幫AI公司提高LLM的準確性。Meta、谷歌等大公司,都是它的客戶。
而且,今年Scale AI的生意越做越紅火了。
跟去年同期相比,它今年上半年的銷售額增長了近4倍,已經接近4億美元。
可以肯定地說,Scale AI是從AI熱潮中受益最多的私營企業之一。
投資者們當然也看到了這一點。
今年5月,Scale AI以138億美元的估值,進行了新一輪融資。
投資者包括Accel、Founders Fund、Index Ventures、Thrive Capital和Greenoaks Capital等。
並且,除了亞馬遜和Meta之外,Scale AI還吸引了各種各樣的新投資者:思科、英特爾、AMD等風險投資部門參與其中,而且很多注資過的公司也迴歸了,包括英偉達、Coatue、Y Combinator等等。
就在近期,Wang手下的高管團隊,再度進行了調整。
首席技術官Arun Murthy將離開公司,而去年離開風投公司Benchmark的前優步高管Jason Droege將加入公司擔任首席戰略官,直接向Wang彙報。
首席策略官Jason Droege解釋自己爲什麼要加入Scale AI:這讓我有機會參與到我一生中技術領域最根本的變革中
在Droege看來,Scale解決了人工智能中最困難的挑戰之一:通過數據改進模型。做到這一點需要卓越的人才、複雜的運營和對AI未來發展的強烈願景。雖然團隊迄今已經取得了矚目成就,但仍處於起步階段。
2023年上半年開始,公司收入激增
這家成立8年的初創公司,一直負責合同工的招聘和培訓,但尚未實現盈利。
然而就在今年上半年,它成功改善了運營的毛利率——每產生1美元收入,只需要花費約1.2美元,而在去年上半年,這一數字爲1.5美元。
如今僅考慮業務成本(比如合同工的工資),Scale AI保留的收入只有一半。毛利率這一財務指標,略低於50%。比起2022年上半年約57%的毛利率,這個數字有所下降。
這一水平,大大低於科技投資者對軟件公司的期望。
但儘管如此,5月份的融資還是爲Scale AI提供了雄厚的資金實力。截至上半年末,公司還有約9.8億美元的現金。
從去年上半年開始,公司收入就開始激增。因爲構建LLM的客戶需要很多合同工,通過向聊天機器人提交問題、撰寫答案,來訓練AI模型。
在給投資者的PPT上,Scale AI自稱是「一個人機混合系統,以低成本生產高質量數據」。
根據外媒消息,它還通過一家名爲Outlier的子公司,僱傭了數十萬個小時工,來進行數據微調。
顯然,Scale AI選擇聚焦LLM客戶,是一種戰略轉型。
此前,它還有一項類似業務,主要是利用菲律賓和肯尼亞的低成本勞動力,爲自動駕駛汽車公司標註數據。但近年來,這項業務的增長已經放緩。
現在,即使僱傭薪酬更高、更專業的合同工,Scale AI的收入也依然能提高,因爲它可以將這些更高的成本轉移給客戶。
當然,現在Scale AI也並非硅谷投資者眼中穩賺不賠的投資。投資者擔憂的問題,包括公司較低的毛利率,以及過度依賴少數幾個大客戶的問題。
天才少年輟學創辦獨角獸
Scale AI由Alexandr Wang和Lucy Guo於2016年創立,由著名創業孵化器Y Combinator投資。客戶包括Meta、微軟、英偉達、OpenAI、豐田和哈佛醫學院。
2019年,Scale AI成爲獨角獸。
2022年,Alexandr Wang成爲全球最年輕的白手起家的億萬富翁。
Wang於1997年出生於新墨西哥州,父母都是在新墨西哥州洛斯阿拉莫斯國家實驗室的物理學家。
高中階段,他開始通過網絡自學編程,開始參加世界級編程大賽,如美國計算機奧林匹克競賽(USACO)。
17歲,他成爲美國知名問答網站Quora的全職碼農;18歲,考入麻省理工學院攻讀機器學習;在MIT大一剛結束後的暑假,他就和Guo一起創辦了Scale,並且拿到了Y Combinator的投資。
Wang跟爸媽說,「這就是我夏天隨便玩玩的事。」
Scale AI剛起步時,有些人確實覺得這就是一個笑話,畢竟公司當時只有三名員工。
不過,在不斷地融資和發展之下,Scale AI發展飛速,到2021年已經成長爲價值73億美元的獨角獸企業,2023年初公司規模也擴展到了700人。
Wang透露,隨着企業客戶競相訓練生成式AI模型,Scale AI的這方面業務快速增長。
2023年,公司年度經常性收入增加了兩倍,預計2024年底將達到14億美元。
由於Scale AI的驚人成就,Alexandr Wang已經被硅谷公認爲「下一個扎克伯格」。
AI模型的「數據工廠」
AI領域公認的三個基本支柱——數據、算法和算力。
算法領域,前有谷歌、微軟的大型研究院,後有推出過Sora和GPT系列模型的OpenAI;算力領域有供貨全球的英偉達,但在Scale AI還未誕生的2016年,數據領域仍處於空白。
19歲的Alexandr Wang在看到這一點後,做出了輟學創業的決定,「我創辦Scale的原因是爲了解決人工智能中的數據問題」。
大部分數據都是非結構化的,AI很難直接學習這些數據;而且大型數據集的標註一項資源密集型工作,因此,「數據」被很多人認爲是科技領域最辛苦、最卑微的部分。
但Scale AI卻在短時間內就獲得了巨大成功。他們可以爲不同行業的企業客戶量身定製數據服務。
在自動駕駛領域,Cruise和Waymo等公司通過攝像頭和傳感器收集了大量數據,Scale AI將機器學習與「人機迴路」監督相結合,管理和標註這些數據。
他們曾經開發的「自治數據引擎」,甚至推動了L4級自動駕駛的發展。
Wang表示,Scale AI將自己定位爲整個AI生態的基礎設施供應商,構建「數據鑄造廠」,而不僅僅是在子公司Remotasks中僱傭大量的合同工進行人工標註。
他強調,來自專家的、包含複雜推理的數據是未來人工智能的必備條件。
傳統的數據來源,比如從Reddit等社區的評論中抓取數據存在侷限性。Scale AI構建了一些流程,模型先輸出一些內容,例如撰寫研究論文,在此基礎上,人類專家可以改進這些內容,從而改進模型的輸出。
「雖然人工智能生成的數據很重要,但想要獲得有一定質量和準確性的數據,唯一方法是通過人類專家的驗證。」
Alexandr Wang在Scale AI的官網上這樣寫道,「數據豐富不是默認情況,而是一種選擇,它需要彙集工程、運營和AI方面最優秀的人才」。
Scale AI的願景之一是「數據豐富」,從而將前沿LLM擴展到更大數量級,「爲通向AGI鋪平道路。在達到GPT-10的過程中,我們不應該受到數據的限制」。
業內盛讚的LLM排行榜更新
Scale AI對業界所做的貢獻,不僅是數據標註這麼簡單。
今年5月,Scale AI重磅推出了全新LLM排行榜——SEAL,開始對前沿模型開展專業性評估。
對於這個榜單,Jim Fan大加讚賞。他認爲SEAL是LMSys的非常好的補充和參照,提供公開模型的私密、安全、可信的第三方評估。
對此,Andrej Karpathy也深以爲然。
隨着OpenAI最強模型——o1的推出,SEAL排行榜也第一時間進行了評測。
除了在高級編程、數學和科學等領域表現出色之外,o1系列也爲「prompt engineering」(提示工程)引入了新的變化。
左右滑動查看
在工具使用和指令跟隨方面,o1-preview表現出色。而在編程能力方面,o1-mini奪得榜首,o1-preview緊隨其後位居第二。
- 編程排行榜
在SEAL編程排行榜上,o1-mini以1271分的成績領跑,緊隨其後的是o1-preview,得分爲1198。
評估數據集使用了1000個提示詞,用於測試各種編程任務,涵蓋從代碼生成到優化和文檔創建等多個方面。
過程中,每個模型的響應都會從正確性、性能和可讀性三個維度進行評估,綜合運用人工審覈和代碼執行測試的方法。
- 指令跟隨排行榜
在對精確指令跟隨能力的評估中,o1-preview以87.27 分的成績領先,超越了知名Claude 3.5 Sonnet和Llama 3.1 405B Instruct。
評估數據集包含1054個跨領域的提示詞,涉及文本生成、頭腦風暴和教育支持等多個方面。
提示工程的變化
與我們熟悉的GPT、Gemini或Claude等模型相比,o1模型的提示詞使用和可操控性明顯不同。
根據OpenAI的建議,簡單直接的指令有助於充分發揮o1的潛力。
與之前的模型不同,用戶應避免要求模型進行思維鏈推理。他們還指出,提示詞中的無關上下文對o1模型的干擾可能比之前的GPT系列更大,因此在檢索增強生成(RAG)提示中加入一些示例很重要。
Cognition Labs發現,要求模型「think out loud」(大聲思考)實際上會損害性能,而只要求給出最終答案反而會提高性能,因爲o1模型無論如何都會產生內部的思維鏈。他們還指出,冗長或重複的指令會損害性能,而過於具體的指示似乎會影響模型的推理能力。
雖然o1在基準測試中取得了出色的結果,但讓它完成你自己的具體任務似乎需要更多努力——它們往往會忽視明確(甚至是強調的)關於如何解決問題的指令。
由此可見,現實世界的提示和基準測試中使用的提示之間,實際上存在着不小的差距:後者旨在只包含明確的、自包含的、最小呈現的問題,沒有關於如何解決它們的建議或意見。
需要注意的是,o1-preview響應的延遲,特別是其「首個token的時間」,明顯高於GPT-4o。不過,o1-mini用更快的token推理速度彌補了「思考」的時間。
一些實測
- 詞彙約束
在官方示例中,o1在臭名昭著的「strawberry這個詞中有多少個R?」等「陷阱」任務上,有着不小的改進。
爲了驗證這一點,我們向o1-preview提出了一個新編寫的謎語:
「說出一個拉丁語源的英語形容詞,它以相同的字母開頭和結尾,總共有十一個字母,並且詞中所有元音按字母順序排列。」
在第一次嘗試中,模型成功解決了這個謎語,答案是:sententious。
但如果反覆提問同一個,o1卻並不能次次做對:
sententious ✅
facetiously ❌
transparent ✅
abstentious ❌
facetiously ❌
- 解碼密碼
同樣令人深刻的,還有一個解碼複雜密碼的例子。
類似的,我們也嘗試了這個提示詞的各種變體,包括ROT13密碼、Atbash密碼、Base64編碼、反轉字符串等各種組合。
然而,大多數測試都不成功——在7次嘗試中,o1-preview只有2次能夠解碼給出的加密信息(《沙丘》中的「迎恐禱詞」(the Litany Against Fear))。
在每個prompt中,o1都被要求從OpenAI給出的示例中推斷出一種編碼方式。
在以下每個測試中,o1都未能在一次嘗試中解碼目標消息:
ROT13密碼 → 反轉字符串 → Base64編碼 → 反轉字符串
ROT13密碼 → Base64編碼 → ROT13密碼 → 反轉字符串
ROT13密碼 → Base64編碼 → ROT13密碼
ROT13密碼 → Base64編碼 → Atbash密碼
ROT13密碼 → Base58編碼
在第一次嘗試中成功解碼的兩個測試是:
Atbash密碼 → Base64編碼
ROT13密碼 → Base64編碼
這裡展示了第一個成功的例子——其他測試除了使用的編碼不同外,都是相同的:
結論
總結來看,OpenAI的o1模型在推理能力方面都取得了重大突破,在AIME、Codeforces、Scale的SEAL排行榜等關鍵基準測試中表現出色。
這些結果表明,o1-preview和o1-mini是解決複雜推理問題的強大工具。然而,要充分發揮這些模型的潛力,可能需要比用戶習慣的其他模型發佈更多的實驗和嘗試。
參考資料:
https://www.theinformation.com/articles/scale-ais-sales-nearly-quadrupled-in-first-half?rc=epv9gi
https://scale.com/blog/first-impression-openai-o1?utm_offer=blog