聚焦RTE2024,聲網創始人兼CEO趙斌現場發佈“RTE+AI能力全景圖”

速途網10月26日訊 近日,由聲網和RTE開發者社區聯合主辦的RTE2024第十屆實時互聯網大會在北京正式開幕,本屆大會主題爲“AI愛”,覆蓋AI、出海、社交泛娛樂、IoT、VoiceAI、空間計算等20+行業及技術分論壇。在RTE2024主論壇上,聲網創始人兼CEO趙斌、LeptonAI創始人兼CEO賈揚清、聲網首席科學家、CTO鐘聲分別帶來主題演講。

趙斌分享了聲網十年以來專注實時互動行業的深刻洞察,以及他對RTE在生成式AI時代下未來發展的趨勢判斷,並現場宣佈推出RTE+AI能力全景圖。賈揚清則站在AI基礎設施的視角下,分享了他對AI應用、雲、和GPU算力雲技術的獨到觀點。鐘聲的主題演講聚焦在對實時AI基礎設施的探討上,並分享了AI與RTE結合的前沿技術實踐。

趙斌:生成式AI將驅動IT行業四大變革

生成式AI正在驅動IT行業發生大變革,趙斌認爲,這一趨勢主要體現在四個層面:終端、軟件、雲和人機界面。在終端上,大模型能力將驅動PC和Phone往AIPC和AIPhone的方向進化。在軟件上,所有的軟件都可以、也將會通過大模型重新實現,並從SoftwarewithAI發展至AINativeSoftware。在雲的層面,所有云都需要具備對大模型訓練和推理的能力,AINativeCloud將成爲主流。此外,人機界面的主流交互方式也將從鍵盤、鼠標、觸屏變成自然語言對話界面(LUI)。

隨着生成式AI成爲下個時代IT行業進化的主題,RTE也成爲了多模態應用和基礎設施中一個關鍵的部分。10月初,聲網的兄弟公司Agora作爲語音API合作者,出現在了OpenAI發佈的RealtimeAPI公開測試版中。

在此次大會中,趙斌表示,聲網與MiniMax正在打磨中國第一個RealtimeAPI。趙斌也展示了聲網基於MiniMaxRealtimeAPI打造的人工智能體。在演示視頻中,人與智能體輕鬆流暢的進行實時語音對話。當人類打斷智能體並提出新的疑問時,智能體也能夠非常靈敏的快速反應,實現了與人類自然流暢的對話。

在生成式AI的大潮下,RTE將會提供更爲廣闊的空間。趙斌也在分享中宣佈,聲網正式發佈了RTE+AI能力全景圖。在全景圖中,聲網從實時AI基礎設施、RTE+AI生態能力、聲網AIAgent、實時多模態對話式AI解決方案、RTE+AI應用場景五個維度,清晰呈現了當下RTE與AI相結合的技術能力與應用方案。生成式AI與RTE結合帶來的場景創新,將成爲下一個十年的主題。

過去十年,聲網不僅見證並推動了RTE從一個理念變成一個行業的過程,更身體力行的打破了國內實時音視頻領域的三無狀態。趙斌稱,10年前行業內沒有行業會議、專業書籍、以及專業媒體和社區。如今,RTE大會邁入第10年,聲網也於今年8月正式出版行業首本系統介紹實時互動的技術型科普圖書《讀懂實時互動》,同時,RTE開發者社區也持續繁榮,加速推動。

賈揚清:AI是雲的第三次浪潮

隨着AI技術的發展,AI時代的大模型應用開發、AI雲、以及GPU等基礎設施建設逐漸成爲熱門話題,也成爲了支撐整個行業發展、催生新應用誕生、新商業價值實現的基本底座。LeptonAI創始人兼CEO賈揚清在RTE2024主論壇上分別從AI應用、雲、GPU算力雲技術以及企業大模型自主性等層面帶來了他對AI基礎設施進化的解讀。

針對AI應用,賈揚清指出,今天是最容易建設AI應用的時代,越是簡潔的AI模型思路越容易產生優秀的效果。AI能力加持後,應用本身的開發範式也在從數據、模型、應用構建三個維度發生變化,未來的應用開發將從“以流程爲中心”轉化爲“以模型爲中心”。

除了AI應用層面,傳統的雲架構也在大模型、GPU優化等需求的催化下發生了翻天覆地的變化。賈揚清認爲,AI是雲的第三次浪潮,繼Web雲、數據雲之後,AI將成爲第三朵雲。AI雲有以下三個特徵:算力會成爲智能的基礎、AI雲需要大量計算與大規模的異構集羣,以及少量但高質量的通訊。總體而言,雲的產品形態,本質是計算和傳輸的平衡。

賈揚清指出,在AI雲的形態下,實時的交流和智能的結合在用戶體驗環節非常重要。毫不誇張的說,實時將直接與生產力劃上等號。

企業在構建自己的大模型自主性上,到底該如何決策?賈揚清強調,企業應該將開源和閉源大模型都納入考慮範疇。採用開源模型+定製化的優勢不僅僅是具備更強的可定製性,還有更低的成本以及更高的速度,開源+定製化能夠達到比閉源模型更好的效果。

鐘聲:分佈式端邊雲結合的AI系統將成爲現代基礎設施的基本形態

在已經到來的AI時代,現代化基礎設施應該是什麼樣?聲網首席科學家、CTO鐘聲提到,大量用戶設備往往會先接入邊緣節點、並在需要的時候再接入雲端,數據將在端設備、邊緣節點和雲之間往返傳遞。AI時代的數據中心會包含以大量異構算力組成的超級計算集羣(SuperScaler)。

但是,停留在僅依賴超級計算集羣的系統是遠遠不夠的,萬億參數、多模態引入所造成的高昂計算成本、缺乏機制約束的數據隱私保護、幾秒鐘的延時都將阻礙大模型的普惠,極大地限制其在很多場景下的應用。

鐘聲認爲,分佈式端邊雲結合的AI系統將有效解決這些痛點。這個系統將把計算和傳輸在各節點做合理地配置,系統會智能地以自適應的方式把任務編排到端與邊上執行,非常有效地降低了成本,同時提供了更低延時(低於1秒級的響應速度)、更高網絡抖動容忍度、優秀的抗噪聲能力,並且完整的用戶數據只會保留在端上。

分享過程中,鐘聲還在大會現場演示了一個由STT、LLM、TTS、RTC四個模塊組成的端邊結合實時對話AI智能體,這也是全球首次有廠商在比日常實際場景更具挑戰的環境下展示實時AI對話能力。大會現場觀衆規模超過千人,面臨複雜的噪聲、回聲、麥克風延遲等困難,但智能體與鐘聲的互動仍然表現出了優秀的對話能力,在普通5G網絡環境下實現了流暢、自然、有趣的雙向實時對話,對話模型的極快響應速度、及時打斷與被打斷的自然程度、對抗噪聲能力、遵循語音指令做等待能力都非常突出。

正如鐘聲在最後分享的,隨着端設備的多樣化以及能力的提升,AI基礎設施會變得更優化合理,使得AI無處不在,AI助理、AI分身幫助我們有效緩解時間稀缺性,改善工作效率和生活體驗。

圓桌:AI的6000億難題,從基礎設施到商業化落地

AI的6000億美元難題,一直都是整個行業非常關心的話題,在圓桌討論環節中,LeptonAI創始人兼CEO賈揚清、MiniMax合夥人魏偉、面壁智能聯合創始人&CTO曾國洋、HuggingFace工程師王鐵震、Agora聯合創始人TonyWang五位嘉賓一起探討了從AI基礎設施到AI商業化落地的機會與挑戰。

針對商用大模型和開源大模型未來的發展趨勢,賈揚清分享了兩個核心觀點:其一,同等質量模型的Size會變得越來越小,計算效率會越來越高,模型架構也會變得更加開放和標準。其二,除了極少數頭部公司之外,越來越多的企業會採用開源架構來做下一代模型。因此,開源架構的應用會變的越來越普遍,通過開源架構訓練出來的模型也都會有各自不同的風格。

王鐵震則表示,我們將在未來看到越來越多Infra和Realtime的工作,大家不僅需要關注開源模型本身,還需要重視開源模型的基礎設施和數據閉環,才能把開源模型跑得更好、更快。Realtime需要TTS、也需要大模型,如果能夠通過一些方式放在一起,放在邊緣側、離用戶更近的地方,才能產生非常好的效果。

關於如何看待音視頻多模態模型的實際應用潛力,魏偉表示,隨着多模態的出現,生成式人工智能的邊界一定會被繼續拓展,並加速這一產業的變革。從產品和用戶服務過程中魏偉發現,文本、語音、音樂、視頻這些模型可以很好的幫助藝術、影視、音樂等領域的創作者極大地提高效率,併爲他們提供新的思路和方法。

針對大模型技術巨大的成本使用問題,曾國洋分享到,隨着技術的前進,算力一定會變得越來越便宜,相同能力的模型規模也會變得越來越小,但算力成本優化會最終轉化爲訓練更強大的模型。真正達到AGI水平之前,我們只能感受到模型在變得越來越強,很難感受到成本的變化。他還提到,由於面壁智能是做端側模型的,所以很關注如何讓模型在端上跑得更快,在實際部署過程中,他們會用各種量化壓縮甚至是稀疏化方法去優化實際部署的開銷。

總結來說,TonyWang認爲想要推動AIInfra到模型、再到商業化落地,技術驅動和成本是最核心的兩個點。此外,在產品真正走向市場的過程中,流量和口碑也是關鍵。

過去十年,聲網不僅見證並推動了RTE從一個理念變成一個行業的過程,更身體力行的打破了國內實時音視頻領域無行業會議、無專業書籍、無專業媒體及社區的三無狀態。自此,RTE大會邁入第10年,行業首本系統介紹實時互動的技術型科普圖書《讀懂實時互動》於今年8月正式出版,RTE開發者社區也正在秉持着“開放、連接、共創”的理念加速實時互動和AI的共生。

未來,聲網將繼續和大家一起,站在全新的起點、擁抱繁榮且充滿挑戰的AI+RTE新時代。