冷戰核擴散計劃竟能防人工智能軍備競賽?
正如馬克·吐溫所說:“歷史雖不常重演,但往往有驚人的相似之處。”我們很幸運歷史如此,因爲這意味着我們至少可以將過去的經驗教訓作爲當下的大致指南。當我們將這些經驗教訓應用於應對生存風險時,它們甚至可能從字面上拯救生命。而我們當下最大的三個生存風險是氣候變化、大規模殺傷性武器和人工智能。
生成式人工智能領域,尤其是大型語言模型取得突破性發展,引發了來自私營部門和政府的興趣急劇上升;2023 年全球人工智能市場獲得了 1430 億美元的資金,相比 2022 年的 900 億美元有了顯著增長。
這種令人興奮的興趣在很大程度上是因爲人工智能有望全面改變現代生活的幾乎各個方面。從分析醫療檢測到撰寫法律簡報,再到幫助作家和藝術家創作新的藝術作品,似乎沒有人類活動能免受人工智能潛在益處的影響。
但希望的同時也伴隨着危險。由於人工智能有改變現代生活的潛力,各國之間,尤其是美國和中國,已經展開了一場軍備競賽,看誰能以最快、最有效的方式利用人工智能的力量。更具體而言,兩國都全力以赴地加強和整合人工智能技術所依賴的兩大支柱——訓練模型所需的大量數據和進行計算所需的大量計算能力(包括芯片)。
這場新的軍備競賽在很大程度上是由於人工智能的軍事潛力。同樣的人工智能,既可以在智能實驗室中用於分析醫療檢測或合成藥物,也可以用於戰場,更好地區分敵方士兵和己方士兵,並提高瞄準敵方資產的效率。在民用和軍事應用中能夠最有效地利用人工智能的國家,在決定世界秩序方面將具有顯著優勢。
但也許人工智能最大的危險來自於它未來可能會變成什麼樣子。通用人工智能(AGI)是指人工智能系統變得有自我意識並自行做出決策,其行爲方式超出甚至違背其人類創造者爲其設定的目標。雖然具有人類水平智能的人工智能目前仍是遙不可及的夢想,但過去幾年中大型語言模型和相關係統所取得的驚人且出乎意料的進展,讓人們對未來人工智能能力突然、意外躍升的擔憂並非毫無根據。
鑑於通用人工智能的潛力以及各國爲建設性和破壞性目的利用它而展開的競賽,人工智能的安全和監管問題已經變得與技術本身的發展同樣重要。由於發展的速度以及技術的根本不可預測性,我們感覺自己身處未知領域。然而,參照上述馬克·吐溫的名言,我們並非如此。大約八十年前制定的一項提案可能成爲我們在這個勇敢的新世界中航行的指路明燈。
在廣島投下原子彈幾天後,羅伯特·奧本海默(作者的祖父之一)在給他的老師赫伯特·史密斯的一封信中寫道:“未來雖有諸多充滿希望的因素,但離絕望也僅一步之遙。”奧本海默所說的希望是核武器的恐怖可能會廢除戰爭。他所提及的絕望在於,人類或許不夠明智,難以在不毀滅自身的前提下處理這一難得的能源。
1946 年,副國務卿迪恩·艾奇遜要求田納西河谷管理局主席、即將成爲原子能委員會主席的大衛·利連索爾撰寫一份報告,分析核武器的威脅,併爲美國向新成立的聯合國提出一項行動計劃。作爲科學和工業顧問,利連索爾任命奧本海默和一個小型顧問團隊爲他提供建議並撰寫報告。
在奧本海默的非正式領導下,鑑於他最爲博學,委員會提出了一個既激進又合理的獨特建議。艾奇遜 - 利連索爾報告於 1946 年 3 月提交給總統和國務卿。主要由奧本海默撰寫,它包含三個關鍵結論:
艾奇遜 - 利連索爾報告的最終建議不僅令人震驚,因爲其本質上主張一種和平擴散的形式,而且極具革命性。讓核技術的所有部分都平等可用,這就如同將一把拆開的槍的所有部件平等放置,使每個國家都能夠觸及。這將實現兩個關鍵目標:一個是透明度。另一個,與直覺相反,是安全性:各國不會因爲其他國家也有同樣的作弊和製造武器的能力而受到誘惑去作弊或製造武器。
艾奇遜 - 利連索爾計劃沒有實現,因爲杜魯門總統天真地認爲蘇聯永遠不會擁有原子彈,而且美國人有責任爲全人類“神聖地保管原子能”,而被任命與蘇聯談判該計劃的伯納德·巴拉克插入了他知道蘇聯會拒絕的條件。
相反,認爲可以通過保密來壟斷科學進步的信念導致了科學家們所擔心的軍備競賽。 裂變不是秘密,1949 年蘇聯測試了他們的第一顆原子彈,這種幻想很快就破滅了。裂變的現實是關於科學本身的現實,奧本海默雄辯地表達了這一點,他說:“科學中的深刻事物不是因爲有用而被發現,而是因爲有可能發現它們才被發現,這是一個深刻而必要的真理。”
即便該方案在 1946 年提出時遭遇失敗,艾奇遜 - 利連索爾報告的重生形式仍爲我們如何應對人工智能提供了關鍵指引。讓我們假設通用人工智能構成的威脅與核武器一樣大。就像核武器的主要目標一樣,人工智能的主要目標是確保該技術不落入危險的國家和非國家行爲者手中,並確保其得到良好而非有害的使用。
但要達成這一目標,需要認可在本就激進的艾奇遜 - 利連索爾方案中所隱藏的真正激進的提議——也就是要明白該提議唯有在不存在秘密的情況下方可生效,而是要依靠覈查與公開討論。該計劃明確指出,讓世界變得不那麼危險的唯一途徑是不存在軍備競賽。
倘若我們想要防止美國和中國在人工智能領域出現類似的軍備競賽,就務必要接納這一想法。天真的反應是通過堅信唯有絕對保密方能實現絕對安全,從而引發另一場軍備競賽,這犯了引發核軍備競賽的相同錯誤。保密不可能是一個可行的長期戰略。
實際上,人工智能的問題要比核武器的問題更爲嚴重。在一定程度上,保密對核武器有效,因爲核武器的擴散從根本上受到鈾或鈈可用性的限制。但要防止人工智能的擴散,就需要對在互聯網的多個角落自由漂浮,並在世界各地的大學課程中傳播的小段代碼進行監管。
這個問題再度與二戰後核武器的問題驚人地相似,當時的政治家和將軍們認爲他們能夠對武器技術進行保密。他們沒有意識到,而像奧本海默、漢斯·貝特和利奧·西拉德這樣的科學家一直試圖告訴他們的是,核武器成爲可能這一事實是唯一的秘密。一旦這個秘密泄露,剩下的就是時間和有才華的科學家和工程師的問題,而蘇聯兩者都有。同樣,人工智能唯一真正的秘密是可以構建模型。
那麼,有關人工智能安全的關鍵問題已不再是應不應該保護模型權重或算法秘密——你應當保護——而是從長遠來看,採取極端保密的手段是否會讓世界在人工智能方面變得更安全。事實上,與核擴散一樣,美國任何訴諸保密的嘗試都會引發中國更大的努力來保護其認爲的自身秘密。
其結果將會引發一場軍備競賽,在這場競賽中,保密和封閉的模式會促使國家和非國家發起攻擊,在出現問題時妨礙系統的故障排查,還會讓廣大民衆無法參與到人工智能安全與監管的關鍵問題之中。
那麼,如果不強制實行完全保密,我們究竟應該怎麼做才能讓人工智能對世界而言是安全的呢?正如艾奇遜 - 利連索爾報告所提議的,我們應當採取截然相反的、激進的辦法。我們應當讓船漏水,哪怕是有意爲之且處於可控的狀態。我們需要做的是將所有人工智能進行開源;這就相當於讓報告裡的國際權威機構向每個人提供核技術的所有部分。
如果我們擔心中國竊取我們的模型,那咱們就給他們提供基本的算法和代碼——但不包括模型權重或關鍵的算法創新——如此一來,我們雙方就能在相同的基礎上開展工作;這樣的話,作弊和濫用該技術的障礙就會高很多。
科學家和工程師在向政治家和公衆宣傳這些風險方面所發揮的關鍵作用不容小覷。二戰後,政治家和將軍們所犯的最大錯誤之一,就是讓自身的科學無知左右政治決策,認爲科學事實與政策毫無關聯。雖說科學家並非治國或外交領域的專家,可他們所掌握的事實能夠爲某些政治決策提供信息,甚至促使做出某些政治決策。裂變的發現迫使世界認識到,如果各國不合作,就會面臨毀滅,強大的人工智能模型的興起也應當促使世界形成類似的認識。
幸運的是,至少有部分關鍵參與者已經察覺到,讓人工智能開放對所有人都有益處。首先是 OpenAI 它是作爲針對山姆·奧特曼、比爾·蓋茨、埃隆·馬斯克和安德烈·卡帕西等企業家所指出的潛在人工智能威脅的解毒劑而創立的。儘管策略和業務結構有所變化,還有追求利潤的激勵因素,但技術領導者愈發認識到開放是應對指數級技術風險的良方。
最近的一個例子是 Meta 創始人兼首席執行官馬克·扎克伯格,他在 7 月 23 日宣稱 Meta 的 Llama 3.1 人工智能模型將會開源。這個擁有 4050 億個參數的模型反過來還能夠用於對參數較少的模型進行微調。扎克伯格清晰明瞭的帖子區分了人工智能造成的有意傷害和無意傷害,並指出開源模型將有助於減輕這兩類傷害。
他認識到,擁有封閉模型不僅只會使少數參與者受益,而且如果這少數人選擇這樣做,還會威脅到整個生態系統。如果國家行爲體決定濫用這些模型,其他國家行爲體能夠檢查其行爲,因爲它們是基於相同的基礎開展工作的。如果非國家行爲體決定濫用這些模型,國家能夠再次對其加以控制,因爲它們能夠訪問相同的代碼庫。如果模型本身失控,就像通用人工智能悲觀主義者所擔心的那樣,整個世界可以共同努力,根據共同的知識來解決問題。這與艾奇遜 - 利連索爾報告中所有人均能平等獲取核技術的情形有着驚人的相似之處。
在給聯合國的一封信中,丹麥物理學家尼爾斯·玻爾——其思想在艾奇遜 - 利連索爾報告中被奧本海默隱性地體現——設想“置於首位的目標”是“一個開放的世界,在這個世界中,每個國家都只能憑藉其對共同文化的貢獻程度以及通過經驗和資源相互幫助的程度來彰顯自身”。保密與人工智能有望帶來巨大紅利從而引領人類走向幸福、富有創造力和繁榮的黃金時代這一情況無法完全兼容。但實現這一狀態的關鍵將是玻爾的開放世界。