“AI將接管世界,但不會征服人類”,圖靈獎得主楊立昆最新訪談

【編者按】作爲圖靈獎得主和 Meta 首席 AI 科學家,楊立昆(Yann LeCun)是 AI 技術最有力的捍衛者之一。

當他的前合作者 Geoffrey Hinton和 Yoshua Bengio 宣稱 AI 滅絕論時,LeCun 並沒有參與。相反,他簽署了一封公開信,呼籲擁抱開源 AI,並稱 AI不應由少數幾家企業控制。

那麼,AI 到底是會給人類帶來毀滅性災難,還是會加速推動人類社會的發展?這也是自 ChatGPT 問世一年多以來,業內早已存在的兩種對抗聲音。

近日,LeCun 接受了美國數字媒體 WIRED 的訪談,就上述問題做出了回答。核心觀點如下:

學術頭條在不改變原文大意的情況下,做了精心的編譯,內容如下:

不要對 Yann LeCun 講一些末日論。作爲現代 AI 的先驅和 Meta 首席 AI 科學家,LeCun 是這項技術最有力的捍衛者之一。他對同行們所描繪的錯誤信息甚至導致人類滅絕的烏托邦式場景嗤之以鼻。他經常在 X 上發推斥責那些製造恐懼的人們。當他的前合作者 Geoffrey Hinton 和 Yoshua Bengio 將他們的名字放在一份聲明的首位,稱 AI 是一種“社會級別的風險”時,LeCun 沒有參與。相反,他簽署了一封致美國總統 Joe Biden 的公開信,呼籲擁抱開源 AI,並稱 AI 不應由少數幾家企業控制。

LeCun 的觀點很重要。他與 Hinton 和 Bengio 一起,幫助創建了對 AI 水平提升至關重要的深度學習方法,三人也因此獲得了計算機領域的最高榮譽——圖靈獎。2013 年,Meta(當時的 Facebook)聘請他擔任了 FAIR 的創始主任。另外,他還是紐約大學教授。最近,他幫助說服首席執行官 Mark Zuckerberg 與世界分享 Meta 的一些 AI 技術。今年夏天,Meta 推出了一款名爲“Llama 2”的開源大型語言模型(LLMs),與 OpenAI、微軟和谷歌競爭。一些批評者警告稱,這種開源策略可能會讓不法分子通過修改代碼繞過對 LLMs 輸出中有害內容的防護措施。做爲 AI 領域最傑出的人物之一,LeCun 認爲人類可以解決這個問題。

今年秋天,我和 LeCun 在紐約 Meta Midtown 辦公室的一間會議室裡進行了交談。我們談到了開源、爲什麼他認爲 AI 的危險性被誇大了,以及計算機是否能像 Charlie Parker 的薩克斯獨奏那樣打動人心。(LeCun 在巴黎郊外長大,經常出入紐約的爵士俱樂部)。12 月,當 LeCun 出席 NeurIPS 會議時,我們又進行了一次對話。考慮到篇幅和清晰度,我們對訪談內容進行了編輯。

Steven Levy:在最近的一次演講中,你說“機器學習糟透了”。爲什麼像你這樣的 AI 先驅會這麼說?

Yann LeCun:機器學習很棒。但那種認爲我們只需要擴大現有技術的規模,就能實現具有人類水平的 AI 的想法呢?要讓機器像人類和動物一樣高效學習,我們還缺少一些重要的東西,但我們還不知道那是什麼。

我不想抨擊這些系統,也不想說它們一無是處,我在整個職業生涯中,就一直專注於這些。但是,我們必須抑制某些人的興奮,他們認爲我們只需要擴大規模,就能很快獲得人類智能。絕對不是這樣的。

你認爲你有責任揭露這些事情。

沒錯。AI 將爲世界帶來許多好處,但一些人正通過人們對這項技術的恐懼來濫用它。我們必須警惕,以免讓人們望而卻步。這也是我們在其他革新世界的技術上犯下的錯誤。就拿 15 世紀印刷術的發明來說,天主教會憎恨它,對嗎?人們可以自己閱讀《聖經》,而不用向牧師請教。幾乎所有權力者都反對廣泛使用印刷術,因爲這會改變權力結構。他們是對的,這造成了長達 200年的宗教衝突。但它也帶來了啓蒙運動。[注:歷史學家可能會指出,教會實際上利用印刷術達到了自己的目的,但不管怎樣,LeCun 是這樣想的。]

爲什麼如此多的科技界知名人士都在敲響 AI 的警鐘?

有些人在尋求關注,有些人沒有看清當今的真實情況。他們沒有意識到,AI 實際上可以減少仇恨言論和錯誤信息。在 Meta,我們利用 AI 在這方面取得了巨大的進步。五年前,在我們從平臺上刪除的所有仇恨言論中,大約有 20% 到 25% 是 AI 系統在任何人看到之前刪除的。去年,這一比例達到了 95%。

你如何看待聊天機器人?它們是否強大到足以取代人類的工作?

他們太棒了,人們已經在這方面取得了巨大的進步。它們將在一定程度上實現創造力的民主化,它們可以寫出非常流暢的文字,這些文字具有非常棒的風格,但它們也很無聊,因爲它們想出的東西可能完全是假的。

Meta 似乎一心想要開發這些技術,並將其應用到產品中。

從長遠來看,未來我們與數字世界的所有互動,以及在某種程度上,我們彼此之間的互動,都將以 AI 系統爲媒介。我們必須嘗試那些現在還沒有強大到足以做到這一點,但即將實現這一點的東西,或者在日常生活中幫助人類創造東西,無論是文字還是實時翻譯,諸如此類,也可能是在元宇宙中。

在 Meta,Mark 如何推進 AI 方面的工作?

Mark 非常投入。今年年初,我與他進行了一次討論,並把我剛纔告訴你的那些內容告訴了他,未來我們所有的互動都將以 AI 爲媒介。ChatGPT 向我們展示了 AI 對新產品的作用,這比我們預想得要早。我們看到,公衆對 AI 功能的癡迷程度遠遠超出了我們的想象。因此,Mark 決定創建一個專注於生成式 AI 的產品部門。

Meta 爲什麼決定以開源的方式與他人共享 Llama 代碼?

當你擁有一個開放的平臺,許多人都能爲之做出貢獻時,進步就會變得更快。最終開發出的系統會更安全,性能也會更好。想象一下,在未來,我們與數字世界的所有互動都將以 AI 系統爲媒介。你不會希望 AI 系統被美國西海岸的少數公司所控制。也許美國人不在乎,也許美國政府不在乎。但我現在告訴你,在歐洲,他們不會喜歡的。他們會說:“好吧,這個能說正確的英語。但法語呢?德語呢?匈牙利語呢?荷蘭語或其他語言呢?你是怎麼訓練它的?這如何反映我們的文化?”

這似乎是讓初創企業使用你的產品並擊敗競爭對手的好辦法。

我們不需要向任何人妥協,這就是世界發展的方向。AI 必須是開源的,因爲當平臺成爲通信結構的重要組成部分時,我們需要一個共同的基礎設施。

有一家公司不同意這種說法,那就是 OpenAI,而你似乎並不喜歡它。

剛開始時,他們設想創建一個非營利組織,從事 AI 研究,從而抗衡谷歌和 Meta 等主導行業研究的公司。我認爲這是一個錯誤的想法,事實證明,我是對的。OpenAI 已經不再開放(open)。Meta 一直是開放的,現在也是。我想說的第二件事是,除非你有辦法爲 AI 研究提供資金,否則你很難開展實質性的 AI 研究。最終,他們不得不成立一個營利機構,並從微軟那裡獲得投資。所以,儘管 OpenAI 有一定的獨立性,但他們現在基本上就是微軟的合作研究機構。第三點,那就是他們相信通用人工智能(AGI)指日可待,而且他們會比任何人都更早地開發出來,但他們做不到。

Sam Altman 被踢出了首席執行官的職位,然後又回到了不同的董事會,你如何看待 OpenAI 的這一戲劇性事件?你認爲這對研究界或行業有什麼影響嗎?

我認爲研究界已經不太關心 OpenAI 了,因爲他們沒有發表論文,也沒有透露他們在做什麼。我的一些前同事和學生在 OpenAI 工作,我們爲他們感到難過,因爲 OpenAI 出現了不穩定因素。研究工作的發展離不開穩定的環境,而一旦發生類似的戲劇性事件,人們就會變得猶豫不決。此外,對從事研究工作的人來說,另一個重要方面就是開放性,而 OpenAI 真的不再開放了。因此,從這個意義上說,OpenAI 已經發生了變化,他們不再被視爲研究界的貢獻者。這一切都掌握在開放平臺手中。

這一事件被稱爲是 AI “加速主義”的勝利,而 “加速主義” 恰恰與 “滅絕論” 相反。我知道你不是一個“滅絕論支持者”,但你是一個 “加速主義者” 嗎?

不,我不喜歡這些標籤。我不屬於任何一個思想流派。我非常謹慎,不會把這類思想推向極端,因爲太容易陷入完全循環,從而做出愚蠢的事情。

歐盟最近發佈了一套 AI 法規,其中有一條就是在很大程度上豁免了開源模型。這將對 Meta 和其他公司產生哪些影響?

這在一定程度上影響到了 Meta,但我們有足夠的實力來遵守任何法規。對於那些沒有自己的資源從頭開始構建 AI 系統的國家來說,這一點要重要得多。他們可以依靠開源平臺,擁有符合其文化、語言和興趣的 AI 系統。在不遠的將來,我們與數字世界的絕大多數互動都將以 AI 系統爲媒介。你不會希望這些東西被加利福尼亞的少數公司所控制。

你是否參與幫助監管機構得出這一結論?

我在與監管機構探討,但沒有直接和他們交談。我一直在與各國政府交流,尤其是法國政府,但也間接與其他國家的政府交流。基本上,他們不希望公民的數字消費被少數人控制,法國政府很早就接受了這一想法。不幸的是,我沒有和歐盟層面的人談過,他們更多受到末日預言的影響,希望對一切進行監管,以防止他們認爲可能發生的災難發生。但是,這遭到了法國、德國和意大利政府的反對,他們認爲,歐盟必須爲開源平臺做出特別的規定。

但是,開源 AI 真的難以控制和監管嗎?

對於安全性非常重要的產品,已經有相關的法規。比如,如果你要用 AI 來設計新藥,就已經有法規來確保這種產品是安全的。我認爲這是有道理的。人們正在爭論的問題是,對 AI 的研發進行監管是否合理。我認爲沒有意義。

難道不會有人能利用大公司發佈的複雜開源系統來佔領世界嗎?只要獲得源代碼和權重,恐怖分子或騙子就能爲 AI 系統提供破壞性能力。

他們需要在某個隱蔽的地方獲得 2000 個 GPU,需要足夠的資金和人才來完成這項工作。

我認爲,他們最終會想出如何製造自己的 AI 芯片。

沒錯,但它會比先進技術落後幾年實現。這就是在世界歷史中,每當科技進步的時候,你都無法阻止壞人獲取它,然後就是善意 AI 對抗邪惡 AI。保持領先的方法就是加快進步,實現更快進步的方法是開放研究,讓更多人蔘與其中。

如何定義 AGI?

我不喜歡 AGI 這個詞,因爲根本不存在通用智能。智能不是一種可以測量的線性事物,不同類型的智能實體擁有不同的技能。

一旦讓計算機達到人類的智能水平,它們就不會止步於此。憑藉豐富的知識、機器級的數學能力和更好的算法,它們會創造出超級智能,對嗎?

是的,毫無疑問,機器最終會比人類更聰明。我們不知道這需要多長時間,可能是幾年,也可能是幾個世紀。

到那時,我們就得束手就擒嗎?

不是。我們都將擁 AI 助手,就像與一羣超級聰明的員工一起工作一樣,只是它們不是人而已。人類會因此受到威脅,但我認爲我們應該感到興奮。最讓我興奮的是與比我更聰明的人一起工作,因爲這會擴展你自己的能力。

但是,如果計算機獲得超級智能,它們爲什麼還需要我們呢?

我們沒有理由相信,AI 系統一旦變得智能,就會想替代人類。如果人們認爲 AI 系統會有和人類一樣的動機,那就大錯特錯了。它們不會,因爲我們會在設計中進行設定。

如果人類沒有建立這些目標,而超級智能系統一心追求某個目標,最終傷害了人類呢?就像哲學家 Nick Bostrom 所舉的例子:一個被設計爲無論如何都要製造回形針的系統,爲了製造更多的回形針而佔領了整個世界。

如果只是建立系統而忽略了防護措施,那就顯得太愚蠢了。這就好比製造一輛搭載了 1000 馬力發動機卻沒有剎車系統的汽車。在 AI 系統中設定目標是確保其可控性和安全性的唯一途徑,我將其稱之爲目標驅動型 AI。這是一種全新的架構,目前我們尚未見到任何範例。

這就是你現在的工作嗎?

是的,我們的想法是,機器有它需要滿足的目標,它不能產生任何不符合這些目標的東西。這些目標可能包括防止危險發生的防護措施或其他東西,這就是讓 AI 系統安全的方法。

你認爲你會爲你所促成的 AI 的後果而後悔嗎?

如果我認爲是這樣的話,我就不會再這麼做了。

你是一個爵士樂迷。AI 產生的任何東西能否與迄今爲止只有人類才能產生的令人興奮的創造力相媲美?它能創造出有靈魂的作品嗎?

答案很複雜。是的,AI 系統最終將能創作出音樂、視覺藝術或其他作品,其技術質量與人類相似,甚至更勝一籌。但是,AI 系統並不具備創作即興音樂的能力,因爲即興音樂依賴於人類的情緒和情感交流。AI 至少現在還沒有這種能力,這就是爵士樂需要現場聆聽的原因。

你還沒回答我這種音樂是否有靈魂。

你已經有了完全沒有靈魂的音樂。這種音樂可以在餐廳裡播放的背景音樂中聽到,主要由機器生產,這就是市場。

但我說的是藝術的頂峰。如果我放給你聽的是 Charlie Parker 最好的錄音,然後告訴你這是 AI 生成的,你會不會覺得被騙了?

是,也不是。是的,因爲音樂不僅僅是一種聽覺體驗,其中很多是文化體驗,這是對錶演者的欽佩。你的例子就像 Milli Vanilli,真實是藝術體驗的重要組成部分。

如果 AI 系統足以與精英藝術成就相媲美,而你又不知道其背後的故事,那麼市場上就會充斥着 Charlie Parker 級別的音樂,而我們卻無法分辨其中的差別。

我認爲這沒有任何問題。我還是會買原版,就像我還是會買一個價值 300 美元的手工碗,雖然我花 5 美元就能買到一個看起來差不多的東西,但它還是來自一個有着數百年文化的地方。我們仍然會去現場聆聽我最喜歡的爵士音樂家的演奏,儘管他們可以被模仿。AI 系統的體驗是不一樣的。

你最近從馬克龍總統那裡獲得了一項榮譽,我無法讀出這些法語......

法國榮譽軍團騎士(Chevalier de la Légion d'honneur)。它是由拿破崙創立的。它有點類似於英國的爵士頭銜,不過我們有一場革命,所以我們不稱呼人們爲“爵士”。

有武器裝備嗎?

不,他們沒有劍之類的東西。但是,擁有這種武器的人可以在衣襟上佩戴紅色小條紋。

AI 模型能贏得這一獎項嗎?

不會很快,反正我覺得這不是個好主意。