當人類無法理解人工智能……

摘要:當前,人工智能讓人頭疼的問題之一是:它們的行事方式我們常常難以理解。

興奮與憂懼在2024世界人工智能大會並存。興奮不難看到,那麼多人工智能產品,給人類生產力帶來巨大躍升,沒有理由不爲此歡欣鼓舞。憂懼也不時不籠罩着這個行業,就像圖靈獎獲得者姚期智在大會開幕式上警告的:“簡單來說,突然發現了一個方式,創造一個新的物種,這個物種比我們強大很多很多倍,我們是不是確定能跟它共存?”

這種複雜的感受從今年大會的全稱——2024世界人工智能大會暨人工智能全球治理高級別會議——當中也能體會到,這既是一次人工智能的大會,也是一次人工智能治理的大會。

人類對機器的擔憂由來已久。很多科幻電影都呈現過這樣的情景:一臺由人類製造的機器有了自我意識,不再聽從擺佈,而是反過來與人類爲敵。

真實世界裡的人工智能還遠沒有這麼智能,人們擔心的還不是它們違背指令、自行其是。當前,人工智能讓人頭疼的問題之一是:它們的行事方式我們常常難以理解。

因爲構成人工智能的關鍵技術——深度學習的過程是不透明的。深度學習模仿了人腦學習的方式,依靠人工神經網絡,對節點(類似神經元)和數值權重(類似突觸)之間的關係進行編碼。這些網絡的體系結構可以自行發展。在完成了訓練後,程序員就不再管它,也無從知曉它正在執行什麼計算。這意味着,即使是神經網絡的設計者,也無法知道神經網絡在經過訓練後,究竟是如何執行任務的。

一個知名的例子是AlphaGo(阿爾法狗)。這是由谷歌子公司DeepMind開發的人工智能程序,擅長圍棋。2016年3月,AlphaGo以4:1戰勝了人類頂尖圍棋選手李世石。幾個月後,又同頂尖人類棋手對戰了60局,並贏得所有棋局。輸給李世石的那一局,是它輸給人類的唯一一局比賽。

AlphaGo贏得驚世駭俗。人們驚歎,更驚懼。因爲即使是AlphaGo的程序編寫者也無從知道AlphaGo爲何能把圍棋下得這麼好,會如此迅速、徹底地擊敗人類對手。我們只能從經驗中瞭解到,神經網絡取得了成功。圖靈獎獲得者朱迪亞·珀爾說,我們對深度學習的理解完全是經驗主義的,沒有任何保證。

機器深度學習彷彿是一個“黑匣子”,和傳統程序完全不同。傳統程序在編寫前,程序員已經在腦中設計好了,他可以解釋機器應該做什麼。但深度學習模型能給自己編程,得出的結果常常是人類無法理解的。

怎麼應對?當前有兩條路徑在並行。

其一是監管。人類無法察知人工智能正在學什麼,以及它如何知道自己學到了什麼。雖然這點讓人不安,但包括基辛格博士等在內的很多思想者認爲,我們不必如此緊張,須知人類的學習往往同樣不透明。無論大人孩童、作家、畫家、球員,事實上經常根據直覺行事,因此無法闡釋他們的學習過程。

爲了應對這種不透明性,各類社會制定了無數的專業認證項目、法律、法規。基辛格等人認爲,我們對人工智能也可以採取類似方法,例如只有在人工智能通過測試證明它的可靠性後,纔可以推出。爲人工智能制定專業認證、合規監控將是全球治理的一項重要工作。

其二是嘗試打開“黑匣子”,增加人工智能的透明性,讓它變得更加可信。包括中國同行在內,全球人工智能界在嘗試不同手段。在2024世界人工智能大會上,上海人工智能實驗室主任、首席科學家周伯文說:“我們最近在探索一條以因果爲核心的路徑,把它取名爲可信人工智能的‘因果之梯’。”

上海人工智能實驗室希望通過深入理解人工智能的內在機理和因果過程,從而安全且有效地開發和使用這項技術。目前因果人工智能的重點研究方向主要有兩個:一是因果發現,挖掘出數據中變量之間的因果關係,讓模型可以給出更加穩定與可靠的解釋;二是因果效應的估計,評估原因變量對結果變量的影響,以提高人工智能預測和決策的準確性。

如果揭示了機器學習的因果過程,一定程度上也就讓人工智能變得可解釋、透明、可信。包括“因果之梯”在內,人類打開人工智能“黑匣子”的進程剛剛開始,當前人工智能還遠說不上“可信”。

1960年,控制論創始人維納寫道:“爲了有效避免災難性後果,我們對於我們製造的機器的理解應該總體上與機器的性能發展同步。由於人類行動緩慢,我們對機器的有效控制可能會失效。等我們能夠對感官傳遞來的信息做出反應,並停下正在駕駛的車時,它可能已經撞到了牆上。”今天,隨着機器變得比維納所能想象到的更加複雜,越來越多人開始認同這種觀點。