觀念平臺-大型語言模型的胡說八道難以消除
圖/freepik
近年來,人工智慧(AI)技術突飛猛進,尤其是大型語言模型(LLM)的發展更是引人注目。在11月初的2024年百度世界大會上,百度創始人李彥宏聲稱,過去24個月內,大模型在技術上取得重大突破,基本消除了幻覺(Hallucination)現象,變得可用、可被信賴。如果李彥宏的意見屬實,那是多麼令人高興的事情。
■百度李彥宏稱大模型「幻覺」現象已消除,遭業界反駁
大型語言模型的幻覺是指模型生成的內容與事實有爭議或邏輯不符,甚至會捏造不存在的信息。也就是大家擔心的「正經八百的胡說八道」。自2018年OpenAI推出首個GPT模型以來,美國企業與研究機構如OpenAI、Google DeepMind、Meta等這些模型的最新發展,都不敢說解決幻覺的問題。
李彥宏的言論在隨後的「文心一言」(百度開發的聊天機器人)公開演示中馬上受到挑戰,其表現不如預期。同時,360集團董事長周鴻禕公開反對李彥宏的觀點,指出大模型的幻覺問題遠未解決。
李彥宏的樂觀評價主要基於百度在大模型領域的技術創新。文心一言採用了知識增強、檢索增強生成(iRAG)及強化學習與人類反饋(RLHF)等技術,試圖提高模型生成內容的準確性和可靠性。從理論上看,這些技術應能有效減少幻覺現象。然而,在實際應用中,文心一言卻頻頻出現錯誤回答和邏輯不一致的問題,甚至虛構學術引用,暴露出大模型在應對複雜場景時的侷限。
與李彥宏的樂觀態度相比,周鴻禕更爲理性和審慎。他指出,大模型在生成語言文本時,幻覺問題依然普遍存在,特別是在高精度應用領域,如醫療、法律和科學研究中,這種問題更是致命。周鴻禕強調,AI行業不應誇大其大模型的能力,而應正視其侷限,並將資源投入到解決實用性和可靠性問題上。
個人認爲,幻覺問題並非單靠技術疊加就能徹底解決。大模型的訓練仍然高度依賴於歷史數據,而這些數據可能包含錯誤或不完整的信息。此外,模型生成內容的概率性特徵,使其在缺乏真實參考時,容易憑空捏造。而且牽涉到推理或創新,就是把不存在的事情想象出來。杜撰想像避免不了有幻覺。
周鴻禕的觀點也凸顯了360集團在AI技術上的不同策略。與百度相比,360更注重技術風險控制和應用場景的安全性。他認爲,行業應優先確保模型在實際應用中的穩定性,並逐步改進核心技術,而非急於追求技術突破的市場效應。
■過度樂觀的宣傳,恐削弱用戶對AI的信任感
此次事件也揭露了AI行業普遍存在的問題:技術宣傳與實際表現之間的落差。李彥宏的言論無疑提高了公衆對文心一言的期待,但公開演示中暴露的問題顯然未能滿足這一期待。這種過度樂觀的技術宣傳,不僅損害了企業聲譽,也可能削弱了用戶對AI技術的信任。
李彥宏與周鴻禕的觀點碰撞,反映了中國AI行業內部的競爭格局。百度與360等企業在技術路徑、應用策略上的分歧,爲行業注入了多樣性。然而,技術競爭並不應是負和博弈,合作仍然是推動行業整體進步的重要途徑。
自美國OpenAI於2018年推出GPT系列模型以來,大模型技術在語言理解、文本生成、多模態處理等方面取得了顯著進步。中國則迅速追趕,推出了包括百度的「文心一言」、阿里的「通義千問」、騰訊的「混元」等在內的多款大模型。在各項技術指標上,中國已經可以與美國抗衡。
大模型作爲人工智慧領域的重要里程碑,其潛力無可否認。然而,幻覺問題的存在提醒我們,技術發展仍需循序漸進。在追求技術突破的同時,AI企業更應注重技術應用的穩定性和可靠性,爲用戶提供真正有價值的服務。
未來,華人世界的AI行業不但需在競爭,更要合作。競爭則能激發創新活力,促使企業不斷突破技術瓶頸。而企業間的合作更可以加速技術的標準化進程,共同推動技術應用場景的擴展,創造福祉,造福人類。