美學者:未來100年內「AI消滅人類」機率高達99.9% 預示3悲慘結局

▲美國一位大學教授兼AI安全研究者認爲,未來100年內,AI導致人類滅絕的機率高達99.9%。(示意圖/CFP)

記者張寧倢/編譯

研究人工智慧(AI)的美國知名大學教授揚波爾斯基(Roman Yampolskiy)近日表示,他估計AI在未來100年內導致人類滅絕的機率高達99.9%,原因是至今仍沒有一個AI模型是完全安全的,未來也很難創造出零缺陷的高度複雜模型。不過,大多數AI研究者態度較爲溫和,認爲AI消滅人類的機率大約是1%到20%。

根據美媒《商業內幕》報導,揚波爾斯基在路易斯維爾大學(University of Louisville)教授電腦科學,專精網路與AI安全方面研究。近日他出版新書《人工智慧:無法解釋、預測或控制》(AI: Unexplainable, Unpredictable, Uncontrollable.),並在一檔Podcast節目中談了2個多小時有關AI未來可能造成的風險,但所持態度相當悲觀。

人工智慧帶來人類滅絕風險

揚波爾斯基認爲,AI是否滅絕人類的關鍵取決於,人類能否在未來100年內創造出高度複雜並且零出錯(with zero bugs)的軟體。但他估計這樣的可能性並不高,因爲人們一直在試圖讓AI去做一些超出它原先設計範圍內的事情,因此迄今沒有任何一種AI模型是完全安全的。

揚波爾斯基說,「它們已經釀成失誤,我們發生過意外,它們曾越獄(jailbroken)過。我不認爲現今存在一個單一的大型語言模型是可以成功防止它做一些開發者不想讓它做的事。」

▲揚波爾斯基預測,AI機器人最終有可能可以獨力完成所有工作,人類將因此失去追求目標。(示意圖/CFP)

AI發展的3種悲慘結局

揚波爾斯基認爲,爲了控制AI,需要一個永久的安全機制,「即使我們在接下來來幾個版本的GPT中做得很好,AI也會繼續改進、學習、自我修改,並與不同的玩家互動,同時有生存風險,這『只有一次機會』」。

揚波爾斯基警告,「我們無法預測一個更聰明的系統會怎麼做」。他在通用人工智慧(AGI)的背景下將人類比喻成松鼠,而AI卻能想出一些甚至人類還不知道存在的東西。揚波爾斯基預測了3種結局,其一是每個人都會死,其二是每個人都很痛苦並渴望死亡,其三是AI系統比人類更具創造力,並能完成所有工作,導致人類無所事事並完全失去他們的追求。

▲有關AI發展的安全性,科技界重要人物也曾發表看法。(示意圖/CFP)

其他人怎麼看?

揚波爾斯基受訪的Podcast節目主持人費裡曼(Lex Fridman)表示,與他討論過的大多數AI工程師都認爲,AI消滅人類的可能性約在1%到20%之間。另外,最近一項針對2700名AI研究人員的研究結果顯示,此一機率只有5%。

ChatGPT開發公司OpenAI的CEO奧特曼(Sam Altman)建議設立一個「監管沙盒」(regulatory sandbox),讓人們能在其中對AI進行實驗,並根據實驗結果進行監管與調整。奧特曼2015年曾半開玩笑地說,AI最有可能導致世界末日,但在此期間,會誕生許多偉大的公司。特斯拉執行長馬斯克(Elon Musk)也曾預測,AI毀滅人類的機率爲10%到20%。

另外,前Google CEO施密特(Eric Schmidt)曾經表示,AI的真正危險在於網路與生物(生化)攻擊,但這些風險將在3到5年內顯現出來,若AI真的發展出意志,他認爲最簡單的解決方法是:人類可以直接拔掉插頭。