《自然》發表自動駕駛倫理調查:遇到事故如何抉擇

本文系本站智能工作室公衆號 smartman163)出品。聚焦AI,讀懂下一個大時代

【本站智能訊 11月3日消息】據國外媒體報道,當無人駕駛汽車在繁忙的街道上發生碰撞的時候,它該優先避免讓誰受傷呢?它該殺死誰,而不殺死誰呢?麻省理工學院的一項研究表明,你的回答將取決於你來自哪裡。

2016年,麻省理工學院媒體實驗室的研究人員啓動了一項實驗。他們想了解人們希望無人駕駛汽車有怎樣的行動模式,所以他們建立了一個網站,在上面任何人都可以體驗到13種不同的無人駕駛汽車場景:處於撞車事故中的自動駕駛汽車是否應該優先避免讓年輕人而不是老年人受傷?還是優先避免讓女人而不是男人受傷?它應該優先避免讓身體健康的人而不是超重的人受傷?它是否應該根本不做任何決定,而只是選擇不作爲呢?

兩年後,研究人員已經分析了來自233個國家的230萬參與者的3961萬項決策。在發表在《自然》雜誌上的一項新研究中,它們表明,在機器如何對待我們的問題上,我們的對錯感是由我們居住的地方的經濟文化規範決定的。他們發現,對於自動駕駛汽車該有怎樣的行爲模式,三大地理區域有着不同的倫理觀念:西部(包括北美和歐洲基督教國家)、東部(包括遠東國家和伊斯蘭國家)和南部(包括南美大部分地區和與法國有淵源的國家)。這些大羣體也有自己的子羣,比如西方斯堪那維亞半島和南方的拉丁美洲國家。正如該研究的交互式圖表所顯示的那樣,巴西人傾向於選擇保護乘客而不是行人;伊朗人更有可能優先保護行人;與平均水平相比,澳大利亞人更傾向於保護身體健康的人,而不是超重的人。

但該研究還發現,世界各地的人趨向於在三個方面達成一致:許多人希望自動駕駛汽車優先保護人類而非動物,優先保護年輕人而非老人,保護儘可能多的人。這些見解可以爲機器倫理的國際準則提供基礎——研究人員寫道,當這些“危及生命兩難困境出現時”,必須要有相關的國際準則。那些討論不應該侷限於工程師政策制定者,畢竟那些問題會影響到每一個人。

從這個角度來看,“道德機器”研究讓我們首次能夠一窺數百萬人對機器倫理的看法。

不同文化之間存在分歧

雖然大多數文化有着一些普遍的趨勢,但研究人員發現,在偏重個人主義文化的國家(主要在西方)和偏重集體主義文化的國家之間存在着巨大的差異。西方國家往往更傾向於讓無人駕駛汽車保護孩子而非老人,而東方國家則更重視老人的生命——例如,在優先保護兒童而非老年人的傾向度上,柬埔寨遠低於世界平均水平。同樣的,西方國家的人也更傾向於保護儘可能多的人,不管羣體的構成如何。

研究人員認爲,這種分歧可能是制定有關自動駕駛汽車應如何行動的全球指導方針的最大挑戰。他們寫道:“對於政策制定者來說,保護更多的人和年輕人的偏好可能是最重要的考慮因素,因此個人主義和集體主義文化之間的差異可能會成爲制定通用機器倫理的一個重要障礙。”

一個國家經濟也影響自動駕駛倫理判斷

除了文化差異以外,研究還發現,經濟學在該問題上也發揮着重要作用。例如,透過一個國家的經濟不平等程度,可以預測人們有多願意優先保護社會地位較高的人而不是社會地位較低的人。這意味着,來自經濟不平等程度高(依據世界銀行對不平等程度的衡量指標基尼係數)的國家的人更有可能希望無人駕駛汽車優先保護企業高管而不是無家可歸者。

通過比較瑞典安哥拉,你可以在‘道德機器’的交互式圖表中看到這一點。基尼係數越低,國家越接近平等。相較於全球平均水平,更平等的瑞典(基尼係數非常低,爲29.2)不太可能希望無人駕駛汽車優先保護地位高的人,而安哥拉(基尼係數高,爲42.7)則認爲地位高的人比任何其它的羣體都應受到優先保護。

“在‘道德機器’研究中,那些來自經濟上沒那麼平等的國家的人也不平等地對待富人窮人。”研究人員寫道,“這種關係或許可以解釋爲,人們的道德偏好經常受到不平等的影響,也許更廣泛的平等主義準則影響着一個國家願意在社會層面容忍多大程度的不平等,影響者參與者在‘道德機器’判斷中支持多大程度的不平等。”

同樣地,對於亂穿馬路的問題,國家的人均國內生產總值和制度的力量與保護遵守交通規則的人的偏好程度相關。另一方面,來自較貧窮國家的人往往對橫穿馬路的行人更加寬容。

理解文化羣體之間細微的差異尤爲重要

在年齡、人口數量和人類生活上,人們對於機器倫理有着一些基本的共識,但理解文化羣體之間細微的差異尤爲重要——它們往往沒有個體與集體的差異那麼明顯。例如,南部地區的國家非常偏向於保護女性而不是男性,也非常偏向於保護身體健康的人而不是不健康的人。

研究人員認爲,在制定決策系統和法規時,自動駕駛汽車製造商政治家需要考慮到所有的這些差異。這一點很重要:“儘管公衆的道德偏好不一定是道德政策的主要決定因素,但人們多大程度上願意購買自動駕駛汽車以及容忍它們上路行駛,將取決於所採用的道德規則的適合性。”研究人員寫道。

儘管不同文化之間存在這些差異,但‘道德機器’團隊仍然認爲,我們需要進行一次全球性的、包容性對話,討論我們在機器決策的問題上有什麼樣的倫理道德——尤其是考慮到自動化機器時代正在快速逼近我們。

“在人類歷史上,我們從未允許過機器在沒有實時監控的情況下,在一瞬間自主決定誰該活誰該死。”研究人員寫道,“我們隨時都將面臨這個問題,它不會發生在軍事行動的遙遠戰場上;它將發生在我們生活中最平凡的層面:每天的交通。在我們允許我們的汽車做出道德決定之前,我們需要進行一次全球對話,向設計道德算法的公司和監管它們的政策制定者表達我們的偏好。”

(選自:Fastcompany 編譯:本站智能 參與:樂邦

關注本站智能公衆號(smartman163),爲你解讀AI領域大公司大事件,新觀點新應用。