李彥宏內部講話曝光:談大模型三大認知誤區,未來模型之間的差距會變大

“外界對大模型有相當多的誤解,”近日據媒體報道,李彥宏的一則內部講話曝光。在最近一次和員工交流中,李彥宏談及三個大模型認知誤區,涵蓋了大模型競爭、開源模型效率、智能體趨勢等熱點話題。

李彥宏認爲未來大模型之間的差距可能會越來越大。他進一步解釋,大模型的天花板很高,現在距離理想情況還相差非常遠,所以模型要不斷快速迭代、更新和升級;需要能幾年、十幾年如一日地投入,不斷滿足用戶需求,降本增效。

榜單不代表大模型實力,模型之間的差距是多維的

對於行業“大模型之間的能力已經沒有壁壘”的說法,李彥宏給出了不同觀點。“每次新模型發佈,都要和GPT-4o做比較,說我的得分已經跟它差不多了,甚至某些單項上得分已經超過它了,但這並不表明和最先進的模型就沒有差距了。”

他解釋說,很多模型爲了證明自己,會在發佈之後去打榜,會去猜測試題目、答題技巧,從榜單上看 ,或許模型的能力已經很接近了,“但到實際應用中,實力還是有明顯差距的。”

李彥宏指出,模型之間的差距是多維度的。行業往往更關注理解、生成、邏輯、記憶等能力的差距,但卻忽視了成本、推理速度等維度,有些模型雖能達到同樣效果,但成本高、推理速度慢,還是不如先進模型。

內部講話中,李彥宏認爲,真正要去衡量大模型能力,應該是在具體應用場景中,看是否能滿足用戶需求、產生價值增益,這纔是最值得被在乎的。

開源模型效率不高,解決不了算力問題

延續此前觀點,內部講話中,李彥宏進一步闡釋了外界對開源大模型的認知誤區。

“在大模型時代之前,大家習慣了開源意味着免費、意味着成本低。” 他解釋說,比如開源的Linux,因爲已經有了電腦,所以使用Linux是免費的。但這些在大模型時代不成立,大模型推理是很貴的,開源模型也不會送算力,還得自己買設備,無法實現算力的高效利用。

“效率上開源模型是不行的。” 他表示,“ 閉源模型準確講應該叫商業模型,是無數用戶分攤研發成本、分攤推理用的機器資源和GPU,GPU的使用效率是最高的,百度文心大模型3.5、4.0的GPU使用率都達到了90%多。”

李彥宏分析,在教學科研等領域,開源模型是有價值的;但在商業領域,當追求的是效率、效果和最低成本時,開源模型是沒有優勢的。

智能體是大模型最重要的發展方向,但還不是業界共識

李彥宏還談及了大模型應用的發展階段,他認爲首先出現的是Copilot,對人進行輔助;接下來是Agent智能體,有一定的自主性,能自主使用工具、反思、自我進化;這種自動化程度再發展,就會變成AI Worker,能獨立完成各方面的工作。

當前,智能體已經受到越來越多的大模型公司及客戶的關注,李彥宏認爲,雖然“有很多人看好智能體這個發展方向,但是到今天爲止,智能體還不是共識,像百度這樣把智能體作爲大模型最重要的戰略、最重要的發展方向的公司並不多。”

爲什麼要強調智能體?李彥宏也給出了答案,“智能體的門檻確實很低”, 很多人不知道怎麼把大模型變成應用,而智能體是一個非常直接、高效、簡單的方式,在模型之上構建智能體相當方便。目前,每週都有上萬個新的智能體在百度文心智能體平臺上被創造出來,智能體的日均分發次數已快速增長至800萬次。

雷峰網