獨家直擊Liquid AI發佈會:非Transformer架構AI模型有了聽覺和視覺 |甲子光年

AI的未來不應受到限制,而應該是“Liquid”。

作者|蘇霍伊

北京時間10月23日,美國初創公司Liquid AI在麻省理工學院(MIT)的Kresge禮堂舉辦了產品發佈會。揭曉了利用Liquid基礎模型的首批企業級產品。

Liquid AI基於第一原理,打造出了一種非Transformer架構的動態引擎——液態神經網絡(Liquid Neural Network,LNN)。通過將神經科學、物理學和動力系統的原理融入其模型設計中,Liquid AI在可解釋性和效率方面實現突破。LFM模型採用了與數學和信號處理領域相似的數學原理,因此它們特別適合處理多種類型的數據,包括文本、音頻、圖像和視頻。

誠然,OpenAI的ChatGPT和谷歌的Gemini可能正在引領人工智能革命,但這家小型初創公司也在用實力向世人證明,創新仍然具有顛覆性力量。

在昨日在宣傳片中,Liquid AI的CEO Ramin Hasani更是直言“Liquid引擎纔是真正的創新”。“它能讓每家公司都擁有自己專屬的AI解決方案,我們創建Liquid AI,是爲了讓人們能以更智能的方式接觸GenAI。”他說道。

「甲子光年」發現,LFM的特點主要有:

Liquid AI產品發佈會現場,來源:「甲子光年」拍攝

Ramin Hasani表示:“Liquid AI讓我們以全新的視角面對AI系統。我們將從底層改變AI。”

三週前,Liquid AI發佈了首批基於液態神經網絡的多模態大模型——Liquid Foundation Models(LFM),包括1.3B、3B和40B三個版本。這些生成式AI模型在各種AI任務中展現出優越性能,它們不僅具有較低的內存需求和更高的推理效率,同時在多個規模上都達到了行業領先的性能水平。

在發佈會上,他們又推出了兩款新產品——音頻LFM和視覺LFM。

音頻LFM擁有近40億參數,能直接在設備上運行。它支持無縫音頻生成,能進行語音到語音轉換和語音到文本轉換。視覺LFM能處理文本與圖像,還能在圖像上添加上下文,可以在邊緣和本地使用這些新基礎模塊解鎖許多應用。

它們可用於檢測金融交易欺詐、控制自動駕駛汽車和分析基因數據等。三星、Shopify等公司正在測試這項技術。

Ramin Hasani特別提出Liquid“不僅僅是一種AI架構”。“我們確實在AI架構上取得了創新,但架構只是基礎模型公司的一部分。我們正在構建一個完整的模型開發生態系統,不僅在架構上創新,還在學習算法、訓練方式、評估方法等方面進行突破。”他說道。

Ramin Hasani,圖片來源:Liquid AI

創始科學家Jimmy Smith介紹了Liquid AI是如何“拔高”模型質量的。“掌握知識能力、多步推理,並關注推理、訓練的效率。在特定部署場景下,我們不僅僅關注模型架構,還考慮數據、訓練算法和後期訓練的相互作用。”Jimmy Smith說。

Jimmy Smith,圖片來源:Liquid AI

高級科學家兼後期訓練負責人Maxime Labonne介紹了Liquid AI“最重要的後期訓練”。“通過創建高質量的示例,讓模型學習如何分步回答複雜問題,我們還需要評估模型的聊天功能以及與用戶的交互方式。”Maxime Labonne表示:“以及最令人興奮的模型合併。在模型合併過程中,我們將同一模型的不同版本的參數合併,創建出統一的高質量模型。”

Maxime Labonne,圖片來源:Liquid AI

電子商務公司Shopify的首席技術官、前微軟高管、Liquid AI顧問Mikhail Parakhin(左三)表示,贏得人工智能競賽最終將需要數百億美元。“甚至一千億美元。對於Liquid AI而言,目前實現這一目標是一項艱鉅的任務。”Mikhail Parakhin說,“但他們擁有一項非凡的技術。”

State of Generative AI的討論,來源:「甲子光年」拍攝

馬薩諸塞州州長Maura Healey也來到現場。她說道:“Liquid AI讓我想起了美國獨立戰爭中在列剋星敦和康德科(隸屬大波士頓區)打響的第一槍,麻州始終致力於革命和創新。”她表示,Liquid AI爲馬薩諸塞州帶來難得的機遇,讓東海岸也能在AI行業中佔據一席之地,而不至於被硅谷遠拋在後。

Ramin Hasani與Maura Healey,圖片:「甲子光年」拍攝

目前,Liquid AI已籌集近5000萬美元,但可能還需數億美元才能完善其AI應用。

Liquid AI起源MIT計算機科學與人工智能實驗室(CSAIL)。其聯合創始人之一是Daniela Rus是MIT CSAIL的主任,同時她也是Andrew和Erna Viterbi教授。與Daniela Rus一同創立Liquid AI的還有三位來自CSAIL的傑出博士後研究員。

Ramin Hasani在加入MIT前,曾是美國最大的基金管理公司之一先鋒集團(Vanguard)的首席人工智能科學家;Mathias Lechner在維也納工業大學讀書時就與Hasani共同研究線蟲的神經結構,這一研究對他們開發液體神經網絡的工作至關重要;首席科學官Alexander Amini則是Daniela Rus的博士生。

而LFM技術源自2020年底,Ramin Hasani等發表的一篇名爲《液態時間常數網 絡(Liquid Time-constant Networks)》的研究論文,這也讓液態神經網絡在數年的起伏後得到了廣泛關注。但作爲一個概念,液態神經網絡自2018年起就存在。

Ramin Hasani等受到秀麗隱杆線蟲的神經結構啓發,製造出了液體神經網絡。秀麗隱杆線蟲是首個完整繪製神經連接圖的生物。雖體型微小,卻展現出高於現有人工智能系統的學習和適應能力。它擁有302個神經元,能執行復雜行爲如覓食和交配。

基於這些生物特性,Daniela Rus等科學家開發了“液態時間常數網絡”,一個由簡單動態系統組成的連續時間模型,這些系統通過非線性門相互作用。這種模型特點是時間靈活性高,通過解微分方程生成輸出,優於傳統神經網絡模型,特別是在處理時間序列預測方面表現卓越。

顯微鏡下的秀麗隱杆線蟲,來源:維基百科

LFM的一個主要優勢是它能夠僅用很少的數字神經元就實現高效的運作,相比於其他龐大計算資源的模型,如ChatGPT,LFM在計算芯片的使用上更爲高效。OpenAI最近甚至提到,下一代ChatGPT需要達到或者依賴於國家層面的技術和資金支持,其對計算力和相關基礎設施的需求已經超出了常規商業運作的範疇。

(封面圖來源:「甲子光年」拍攝)