中科院院士張鈸:我們正處在AI算法不可控的危險狀態

8月19日,2022世界機器人大會主論壇正式開幕,期間,有三位院士到場,就“未來機器人:目標、路徑和挑戰”的主題進行了一場深刻的談話。

三位院士分別爲中國科學院院士,清華大學計算機系教授、現任清華大學人工智能研究院院長 ,微軟亞洲研究院技術顧問的張鈸;中國工程院院士、機器人技術國家工程研究中心主任,遼寧省科學技術協會主席,北京郵電大學自動化學院院王天然;中國科學院院士,中國科學院自動化研究所研究員、機器人理論與應用專家喬紅。

短短一個小時內,三位機器人領域的頂尖專家就人工智能與機器人的區別、智能機器人的未來、爲什麼要人機共融、機器人目前面臨的倫理思考等多個話題進行了探討。

在會上,張鈸提到,第二代人工智能的算法是利用深度神經網絡和對數據的訓練來形成人工智能的,而純粹靠數據驅動的方法必然不可解釋、不可靠,因此即使機器人的智能還很低,但人工智能算法的不可控仍然可能使人類處於危險狀態。

機器人“不是人”,人工智能“不夠智能”

在很多人的印象裡,“機器人”和“人工智能”好像是兩個不分家的概念,甚至於現在的機器人只要一被提起,就自帶“智能”的先天屬性。然而,在張鈸看來,機器人和人工智能是兩個完全獨立的領域。

“最明顯的一點,它們的目標完全不同。人工智能是用機器來模仿人類的智能行爲,追求的是機器行爲與人類行爲的相似性,甚至是越相似越好;而機器人則是爲了協助人類完成一些本來是由人來完成的任務,追求的是完成任務或者人類信任。”張鈸說。

而在這個以機器人爲核心主題的世界機器人大會上,張鈸也詳細科普了機器人的三大主要研究內容:

執行結構;機器人的目的就是要(在物理世界裡)完成任務,所以必須要有執行機構,這種機構可以是仿真動物,也可以建立在電機和齒輪傳動的基礎上。而這項內容在人工智能領域中就不一定要做。

能源;尤其是針對移動機器人,高效的能源是關鍵問題。

智能控制;這部分是一個“大口袋”,包括控制、人工智能、傳感器和環境感知。

張鈸表示,機器人的三大主要研究內容裡,只有“智能控制”部分與人工智能有所重疊,這也就是爲什麼他認爲說人工智能包含機器人,或者機器人包含人工智能都是不對的,這本身就是兩個追求目標不同的學科。

“所以我認爲這兩個領域的名字也起得不好,‘機器人’這個名字讓大家誤解成它是一個人或者必須像人;人工智能則讓人家以爲人工智能做智能的,但實際上人工智能只能在模仿智能行爲,即智能的外部表現,並非在模仿智能。”張鈸補充道。

他也談到了機器人的未來,同人工智能領域近些年熱議的“通用人工智能”一樣,機器人領域也有相似的爭論:即系統是否需要具備一定的通用性,去完成很多任務?

在張鈸看來,這個問題在人工智能領域是有討論的必要性的,但是在機器人領域之中,沒有必要做一個通用機器人去代替人,因爲機器人本身就是爲了完成一定的任務而製造的,比如專門做手術、專門舉重等等,基本表現都是專用的,那麼就不必讓一個手術機器人去扛重。

所以他預言,將來會使多種多樣的智能機器人出現,每個機器人來完成一定或一類工作。

機器人的未來:奴隸、朋友、還是同類?

就着張鈸對機器人未來的暢想,另外兩位院士也提出了自己的看法。

喬紅認爲,將來的機器人主要有三個要求:

智能發育;就像人類會有意識、情感和自己的目標,但機器人沒有自主產生的目標,因此“發育”就是指自主學習,自由運動。

機理不能複製;指人在感性上的不可複製,獨一無二。

永遠的學習。

王天然則進一步認爲,不管未來機器人做成什麼樣子,有一個問題肯定是共通的:機器人與人類應該保持什麼樣的關係?換句話說,也就是“人機共融”問題,這是人與機器人關係的一種抽象概念,具體指人與機器人可以相互理解、相互感知、相互幫助,實現人機共同演進。

對於現在兩種甚囂塵上的觀點,王天然也發表了他的看法,一種是“將來機器人會統治人類”,他認爲過於科幻,人造的機器不可能達到這個目標;而‘機器人造出來是爲了取代人’的說法,王天然也認爲是在故意挑起人和機器的矛盾,在他看來,機器人的目的不是和人爭奪,現在整體的目標就是機器換人,人取代人。

那麼機器人和人類最好的關係是什麼呢?王天然用了四個字:“宛如同類。”

他解釋道:“如果機器人要能替人類服務,那最好是夥伴關係,雖然你是機器我是人,但是我們倆感覺卻好像是同類,而不是一個人和一個機器在一起。這樣就能使得機器人能夠更好爲人類服務,而不是統治人類。”

人工智能算法不可控問題並非遠慮

而要談到機器人與人類的關係,那麼必然還會面臨另一個問題:倫理。

阿西莫夫認爲,關於機器的倫理問題有兩個需要思考的方面:機器人如果智能超過人類,或有意識以後,我們應該如何讓機器人按照倫理準則來行爲;人類如何按照倫理原則來設計和使用機器人。

張鈸認爲,上述兩個方面表面看起來簡單,實際上卻關係到三大難題:

首先是標準和法規問題:什麼是道德?什麼時候不道德?這本身就有非常大的爭議

對於人類來說,有人會在設計使用機器人的時候遵守倫理原則,但有些人不會

如果假設道德規範有了,還有涉及到機器人行爲是否可控

張鈸展開說明了第三個問題,他表示,如果機器人完全按照規則來執行,那就不是智能機器人,只有人類製造者給予了它一定的自主性,機器纔能有創造性,才能逐漸學會自主解決問題,而這必然就要付出一個代價——機器人可能會不受控制。

張鈸說:“當20世紀人工智能發展起來以後,雖然機器人還處在智能很低的階段,但我們已經處在了一個危險狀態,爲什麼呢?因爲我們處於不可控狀態,比如說用深度學習的方法開發出來的人工智能算法沒有可靠性保證的。”

張鈸最後提到了人工智能的三次浪潮:第一次是1956年到1974期間的人工智能1.0,科學家將符號方法引入統計方法中進行語義處理,出現了基於知識的方法;20世紀80年代初至20世紀末則是人工智能2.0,與人工智能相關的數學模型取得了一系列重大發明成果,進一步催生了能與人類下象棋的高度智能機器;而從21世紀初開始至今,人工智能3.0的浪潮正在掀起。

“我們要提出來第三代人工智,必須要解決第二代人工智能的算法不安全、不可靠、不可信、不可控的狀態或問題,而這種擔心現在看起來已經是一個近憂,而並非遠慮了。”

採寫:南都見習記者楊博雯