中國科學院院士張鈸:不應追求AI語言和人類語言無限對齊

“在事實知識層面,初代AI實際在數據庫準確性上更具優勢,而一旦進入創造推理領域,生成式大模型將憑藉其生成新文本的多維度和豐富性,開創嶄新的時代。“在9月10日清華科技園國際會議中心舉辦的大模型研討會上,中國科學院院士、清華大學人工智能研究院名譽院長張鈸如是說。在他看來,AIGC生成內容的多樣性是其能呈現“智能涌現“創造性的基礎。

張鈸院士作報告 (主辦方供圖)

本次研討會由清華大學人工智能研究院基礎模型研究中心和清華大學計算機系共同舉辦,旨在爲國內外大模型領域的研究人員搭建共同探討大模型發展的交流平臺。教育部科學技術與信息化司司長雷朝滋出席會議並致辭,來自斯坦福大學、Open AI、南加州大學等機構的知名大模型研究者現場分享、探討了全球AIGC前沿研究成果和最新熱點。研討會受到學術界和產業界廣泛關注,共吸引近3000位學者、學生和從業者報名參加。

雷朝滋致辭

雷朝滋在致辭中高度讚賞了清華大學基礎模型研究中心在大模型前沿研究領域的積極作爲。作爲該中心成立以來舉辦的首場學術交流活動,他寄望與會專家暢所欲言、建言獻策,共同推動我國大模型研究高質量發展,助力我國人工智能產業走向世界領先。

會上,張鈸院士以《語言大模型(ChatGPT)的本質》爲題,對聊天(對話)機器人的發展歷史進行回顧,對語言大模型究竟要解決什麼問題進行了探討。張院士通過實例系統介紹了以微軟小冰、IBM沃森等爲代表的第一、二代聊天機器人的能力,以及以ChatGPT爲代表的最新一代語言模型的語言生成能力,分析了人工智能實現對話或聊天的原理和本質,闡釋了ChatGPT的性能、原理和侷限性。

“ChatGPT語言跟人類自然語言生成原理最本質的區別是,ChatGPT生成的語言是外部算法驅動的,而人類的語言是由自身主觀意圖驅動的。GPT是將人類投喂的數據作爲其接收的‘知識’來處理的,受制於程式算法的GPT,在處理這些外來‘知識’時,實際是不具備反思能力的。”談及以ChatGPT爲代表的AI大模型侷限性,張鈸表示,機器的“神經學習”並無相應的人類的心理過程,而只是機械的文字和數字符號的計算。

報告中他也補充稱,隨着數據、算法等核心要素的不斷升級迭代,生成式大模型未來可能會突破人爲限制,提升到自主創作層次,從理論上實現高質量內容生態的無限供給。但當前重要的是,需要對ChatGPT語言進行深入的研究和理解,而不是一味追求機器算法語言與人類自然語言的“對齊”。在張鈸看來,某種程度上,生成式大模型正是機器認知智能發展到當下階段的典型代表,這類智能和人類智能各有優劣,而在做大量“對齊”的治理後,大模型智能所生成的文本多維度和豐富性反而會下降,並不利於機器“智能涌現”的創新。他相信,只有人機認知協作纔有可能應對未來社會或將帶來的算力和認知挑戰。

他同時還強調了對語言大模型實施必要的道德倫理監管及治理的重要性。

此外,思維鏈技術(Chain of Thought)的提出者,來自Open AI的Jason Wei則以《大語言模式復興中的新範式》“New Paradigms in the Large Language Model Renaissance”爲題作線上特邀報告,主要探討了大型語言模型的可擴展性、涌現能力、基於提示的推理及其對人工智能研究的影響。斯坦福大學計算機科學系副教授Michael Bernstein、南加州大學計算機科學系教授Yan Liu也在上午論壇上各自分享了其最新研究進展。

八位學者作報告,從上至下、從左至右依次爲孫茂松、唐傑、汪玉、翟季冬、黃民烈、劉知遠、劉瀟、東昱曉

下午的論壇上,來自清華大學人工智能研究院基礎模型研究中心的唐傑、黃民烈、劉知遠和翟季冬等多位專家也從各自的垂類研究領域,圍繞大模型的並行訓練加速、顯著通用特性、安全體系和超級對齊理念等方面進行相關科普分享。

據悉,清華大學人工智能研究院基礎模型研究中心成立於2023年6月30日,旨在團結全校科研力量、匯聚社會各界資源、對接國家重大需求,推動通用人工智能有組織科研和學科發展。

採寫:南都記者 呂虹