動物意識研究者:應爲有感知的AI謀福祉
一項新研究指出,計算機科學家得努力應對可能意外造出有感知能力的人工智能(AI)這一情況,還得爲這些系統的福祉做好規劃。
週四發佈的這份報告出自一個非同尋常的領域:動物意識前沿領域的專家,其中有幾位是《紐約動物意識宣言》的簽署者。
正如《國會山報》4 月所報道的,該宣言稱,科學家和公衆對整個動物王國中越來越多的普遍感知能力的證據視而不見,這是“不負責任的”。
這份有關人工智能福利的報告構建於一個和 4 月份的動物意識報告相似的道德與知識框架之上:就是說,人類往往只依照自身形象來感知感知能力,這給他們所共處的生物——或者他們所創造的生物——以及他們自身都帶來了風險。
紐約大學生物倫理學家傑夫·塞博(Jeff Sebo)共同撰寫了這份人工智能福利報告和動物意識宣言。他承認,表明鳥類和哺乳動物——甚至螃蟹和蝦——具有感知能力的數據,遠遠多於人類正在開發的尖端機器工具中任何有關自我意識的證據。
但塞博表示,雖說未來十年創造出有自我意識的人工生命的可能性“客觀上很低”,但這可能性已經夠高了,以至於開發者至少得考慮考慮。
雖然大家普遍覺得人類——或者說章魚——的意識是偶然形成的,但人類正在積極地對人工智能加以修補,有意模仿跟意識有關的特徵。
這些特徵包含“感知、注意力、學習、記憶、自我意識”——這些能力或許跟有機生命中意識的進化緊密相關。
當前,意識研究領域正就意識的先決條件究竟爲何展開激烈辯論;它是否需要由碳分子鏈構成的柔軟細胞或一個物理身體。
但塞博表示,目前我們對意識的瞭解十分有限,這無法排除人工智能開發者在嘗試做其他事的過程中,意外地或者有意地創造出有意識的系統,因爲“他們認爲有意識的人工智能更安全或更有能力”。
在某些情況下,開發這些系統的工作實則是試圖模仿可能具有感知能力的有機生命的結構。在 6 月發表在《自然》雜誌上的研究結果中,哈佛和谷歌的 DeepMind 創造了一個虛擬老鼠 ,其模擬大腦能夠模擬血肉之軀的齧齒動物“對身體的精妙控制”。
儘管 DeepMind 本身發佈了一個招聘啓事,招聘一位能夠研究“圍繞機器認知[和]意識的前沿社會問題”的計算機科學博士,但沒有充分的理由認爲這隻數字老鼠——即便它爲脊椎動物大腦的運作方式提供了諸多見解——具有自我意識。
而且,正如動物研究人員和嬰兒的家長所理解的那樣,感知能力和智力是截然不同的。
但從某種意義上講,這就是塞博及其合著者扼要提出的問題。他們認爲,開發者——以及廣大公衆——存在進化盲點,這使得他們在應對可能具有智能的人工智能時代時準備不足。
“我們並非通過進化和終身學習來真正設計感知或追蹤潛在機制的。”週四論文的合著者、研究人工智能意識的研究小組 Eleos AI 的執行董事羅布·朗說道。
朗表示,歷經數十億年,我們這一譜系逐漸“依據有關某物的外表、動作和行爲的一套相對淺顯的粗略且現成的試探法來判定是否存在思維——這在助力我們避免被吃掉這件事上成效顯著。”
但他稱,大腦的構造致使人們極易在不應歸屬感知的地方出現錯誤歸屬。
塞博和朗指出,頗具諷刺意味的是,這導致人們最容易把感知歸屬於那些最不可能具備感知的機器:即聊天機器人。
塞博和朗覺得,這種悖論近乎是硬生生地嵌入到聊天機器人裡的,它們愈發多地模仿人類的關鍵特徵:流利運用語言的能力,像 OpenAI 這類公司藉助新模型強化了這一特徵,這些模型會大笑、使用諷刺,還會插入“嗯”以及發聲的小習慣。
塞博稱,在未來的幾十年中,“將會有越發複雜和大規模的人工智能系統進行部署,被描述爲處於同伴和協助的情境當中,然而在有關它們是否真的具有思想和感情這一方面,我們存在着極爲重大的分歧和不確定性。”
他表示,這意味着人類必須針對這些系統“培育出一種矛盾心理”:一種“不確定成爲它們是否會有任何感覺,以及我們對它們可能產生的任何感覺是否能得到迴應。”
塞博說,這種矛盾心理還有另外一面:人類或許有意或者無意地創造出會感到疼痛、能夠受苦或者具有某種形式的道德代理——也就是想要事物並努力促使其發生的能力——的系統,他覺得這跟計算機科學家期望這些系統所做的事情不太匹配。
塞博指出,就動物的情形而言,低估感知所帶來的後果是顯而易見的。“對於農場動物和實驗動物,我們當下每年爲獲取食物宰殺數千億只圈養的農場動物,每年還有數萬億隻野生生物——這不全是但部分是因爲我們低估了它們的意識能力和道德重要性。”
他說,這個例子應當成爲一個警示——當人類嘗試“改善與動物的關係”時——讓人們避免在人工智能領域重蹈覆轍。
塞博和朗補充道,對於試圖探索新領域的人類而言,除了全物種普遍傾向於在——但僅僅在——看起來像我們的東西中察覺到感知能力之外,另一個主要問題在於流行文化領域對真正具有感知能力的人工智能可能的模樣進行了極大的錯誤刻畫。
在諸如皮克斯的《機器人總動員》和史蒂文·斯皮爾伯格的《人工智能》這類電影裡,有感知能力的機器人在某些關鍵方面讓人猝不及防地類似人類:它們是擁有可識別的人類情感的單一、離散的智能體,存在於身體之中,並在物理世界裡活動。
接下來是《終結者》系列裡的機器智能“天網”,它成了人工智能安全對話的核心,進而不斷把圍繞新興計算機技術的大衆探討拉回到 20 世紀 80 年代動作片的敘事套路。
塞博覺得,這些都沒什麼特別的用處。他說:“就人工智能和福利而言,事實或許比小說還離奇,我們應當爲這種可能性做好準備。”
塞博講,一方面,數字思維或許不像人類和動物的思維那樣彼此分離。“它們最終有可能會以我們所不具備的方式高度相互聯結。它們的神經元可能分佈在不同的地方,並且相互之間連接得極爲緊密。”
這種意識形式可能更近似於章魚,章魚的頭部有一箇中央大腦,而其觸手中有八個較小的、半獨立的大腦。
塞博說,人工智能可能會“在那個方向帶來可能性的大爆發式的增長,擁有高度互聯的思維——以及關於自我、身份、個性以及一個個體在哪裡結束和下一個個體從哪裡開始的問題。”
無論潛在的人工智能意識最終可能採取何種形式——以及這是否有可能——塞博、朗和他們的合著者認爲,人工智能開發者有責任去承認這些潛在問題,評估其如何適應他們正在構建的工具,併爲這些工具可能具有某種感知能力的未來做好準備。
加州大學河濱分校的哲學家埃裡克·施維茨格貝爾提出了一種可能的設想,他主張推行“情感對齊”政策,即人工智能程序所呈現的感知程度應與其可能具有的感知能力直接相關。
施維茨格貝爾寫道,如果人類有一天設計出有感知能力的人工智能,“我們應該這樣設計它們,讓普通用戶對其的情感反應方式與它們的道德地位相適應。不要設計一個能夠真正感到痛苦和折磨、具有人類般的目標、理性和對未來的思考的人類級別的人工智能,並把它放在一個平淡無奇的盒子裡,讓人們隨意重新進行格式化。”
相比之下,“如果人工智能需要中等程度的關注度——比如說,類似於一隻寵物貓——那麼給它一個界面,鼓勵用戶給予相應程度的關注,不要更多。”
塞博承認,這一政策將迫使聊天機器人和大型語言模型行業發生巨大轉變。
總的來說,他說,他和這篇新文章的其他合著者寫這篇文章是爲了推動關於一個在成爲問題前必須面對的問題的討論。“我們認爲,對於構建這些極其強大、複雜系統的人來說,承認這是一個重要而困難的問題,他們應該加以關注,這將是有益的。”