警告AI風險!13位OpenAI、Google 員工發佈公開信

近日,一封由13位OpenAI和谷歌DeepMind前員工、現員工簽署的公開信引起廣泛關注。這封信對高級人工智能的潛在風險以及當前缺乏對人工智能科技公司的監管表示擔憂。

此外,在這封公開信中提及了AI或許會加劇現有的不平等現象,操縱和傳播誤導信息,以及可能無法控制自主人工智能系統,最終可能威脅人類生存。

爲這封公開信署名背書的有被譽爲“人工智能教父”的傑弗裡·辛頓(Geoffrey Hinton)、因開創性AI研究獲得圖靈獎的約書亞·本吉奧(Yoshua Bengio)和AI安全領域的學者斯圖爾特·羅素(Stuart Russell)。

公開信表示,人工智能技術有潛力爲人類帶來前所未有的福祉,同時,這些技術會帶來嚴峻挑戰,全球的政府和其他AI專家以及AI公司本身都已經意識到了這些風險。然而,AI 公司出於財務利益的考慮,往往避免接受有效監管,“我們認爲特別設計的企業治理模式不足以改變這一現狀”。

公開信提到,AI公司掌握着大量的內部信息,包括其系統的能力和侷限性、保護措施的充分性,以及不同類型傷害的風險水平。然而,目前他們與政府分享這些信息的責任較爲有限,而且沒有與民間社會分享的義務。

上述公司中,現任和前任員工是爲數不多的能夠向公衆負責的人,然而,保密條款阻礙了這種憂慮的表達。

公開信提到,希望領先的AI 企業承諾遵循一些原則,包括承諾不會簽訂或執行任何禁止對公司的風險相關擔憂進行負面評價或批評的協議,也不會因員工進行風險相關的批評而阻礙其既得經濟利益作爲報復。

聯名信希望建立一個可驗證的匿名機制,供現任和前任員工使用。

OpenAI 前員工丹尼爾·科泰洛 (Daniel Kokotajlo)是此次聯名信公開署名人員中的一位。他在社交平臺發文表示,“我們中一些最近從 OpenAI 辭職的人聚集在一起,要求實驗室對透明度作出更廣泛的承諾。”今年 4 月,丹尼爾從 OpenAI 辭職,其中的一個原因就是對該公司在構建通用人工智能方面是否會採取負責任的行爲失去了信心。

丹尼爾提到,AI系統不是普通的軟件,它們是從大量數據中學習的人工神經網絡。關於可解釋性、對齊和控制的科學文獻正在迅速增多,但這些領域仍處於起步階段。雖然OpenAI 等實驗室正在構建的系統能夠帶來巨大的好處。但如果不小心,可能會在短期內造成不穩定,並在長期內造成災難性後果。

丹尼爾表示,從OpenAI離開時,曾被要求籤署一份文件,其中包含一項不貶損條款,禁止他發表任何批評公司的話。丹尼爾拒絕簽署,並失去既得股權。

在丹尼爾加入 OpenAI 時曾希望隨着AI功能越來越強大,內部在安全研究方面投入更多資金,但 OpenAI 從未做出這一轉變。“人們意識到這一點後開始辭職,我不是第一個也不是最後一個辭職的人。”丹尼爾說。

同一時間,OpenAI前超級對齊部門成員利奧波德·阿申布倫納(Leopold Aschenbrenner)也在公開採訪中透露他被開除的真實原因。他給幾位董事會成員分享了一份OpenAI安全備忘錄,結果導致OpenAI管理層不滿。利奧波德在社交平臺表示,到 2027 年實現 AGI 是極其有可能的,需要更嚴格的監管和更透明的機制,確保人工智能的安全發展。

本次公開信事件是OpenAI近期面臨的諸多危機中的一個。

在OpenAI的GPT-4o模型發佈不久後,OpenAI原首席科學家伊利亞·蘇茨克維(Ilya Sutskever)正式官宣離職。不久後,OpenAI超級對齊團隊聯合負責人楊·萊克(Jan Leike)也在推特上宣佈離職。他稱OpenAI領導層關於公司核心優先事項的看法一直不合,超級對齊團隊過去幾個月一直在逆風航行,在提升模型安全性的道路上受到公司內部的重重阻礙,“(OpenAI)安全文化和安全流程已經讓位給閃亮的產品”。