東方法學特稿|王苑:具身智能體的隱私風險及法律應對——以“人形機器人”爲例的展開

作者:王苑,東南大學法學院講師、東南大學人民法院司法大數據基地研究員、法學博士。

具身智能代表了傳統人工智能的具身化轉向,其核心理念是模擬人類智能的具身“進化”過程,創造出作用於真實世界的“身—智—行”統一的機器人。自2023年年初至今的生成式人工智能技術的躍進式發展,成就了機器的“身體/意向”的雙層具身構造。具身智能體是指那些能夠感知、理解環境,並通過智能決策和行動來與環境互動的應用。這些應用通常具備傳感技術、數據處理和執行能力,以模擬或模仿人類感知和行爲。具身智能體不等於生成式人工智能或多模態,因爲具身智能的前提是有一個身體,但其又不能狹義地等同於人形機器人,因爲也存在非人形的智能系統。但毫無疑問,人形機器人是具身智能體中最具代表性的一種。

人形機器人又稱仿人機器人或類人機器人,具有擬人的肢體、運動與作業技能,具備感知、學習和認知能力。2023年10月20日,工業和信息化部印發《人形機器人創新發展指導意見》,該意見對人形機器人的發展作出了全面的戰略部署。作爲衡量國家科技創新和高端製造業水平的重要標誌,人形機器人正成爲科技競爭的新高地、未來產業的新賽道。2024年1月12日,北京人形機器人創新中心專家委員會成立大會上重磅宣佈了北京將加速佈局人形機器人未來產業,打造機器人產業綜合集聚區。業內專家認爲,人形機器人與生成式人工智能的融合,開啓了“具身智能”時代,具身智能機器人是人工智能的終極形態。

機器人技術早已深入滲透製造業的發展,工業機器人替代了流水線上的工人;從軍事到教育,從交通運輸到醫療保健,從老年護理到兒童玩具,機器人正在以新的方式進入公共和私人領域,但也引發了許多社會和倫理問題,尤其是人形機器人的隱私和安全問題。具身智能體給隱私保護提出了哪些新問題?哪些問題通過既有的法律路徑就足以解決?本文主要從具身智能技術的特性、具身智能體對隱私和數據保護的挑戰及相應的法律應對展開。

一、面向社會的具身智能體

具身智能技術呈現出具身性、交互性及涌現性三種顯著特性。過去流行的觀點是,技術的問題交給技術人員來處理。然而,現實卻是,技術問題已經成爲了人文社科無法迴避的真正問題,無論是海德格爾還是劉易斯·芒福德、蘭登·溫納等學者,在20世紀就已經開始思考技術問題的本質。與自然科學不同的是,社會科學更多關注的是技術的社會面向。

(一)具身智能技術的特徵

1.具身性

人工智能的發展依賴數據、算法和算力,但對世界的感知和行動通常需要一種物理存在,數據、算法和算力並不具備物理存在,因此機器人通常是具身的。通常意義上的具身,是指身體與心智的統一。具身性思想關注身體以及身體、大腦及周圍世界複雜的相互滲透關係在人類智能形成和實現中的重要作用。具身智能並不限於人形機器人,但與無實體的計算機程序不同,具身性使得機器人很容易被形塑(picture)出來,進而對人的心理產生影響。具身智能體的設計出現了擬人化的發展趨勢,一方面是因爲受到各種科幻隱喻的影響,但更主要的是因爲擬人化可以幫助消除用戶與機器人之間的隔閡,使人機交互更加輕鬆和愉快,促進情感聯繫和溝通。人們更傾向於信任和欣賞一種具身化的人工智能(通常以機器人的形式出現),而不是無身體的系統。

2.交互性

具身智能體的交互性是指其與人類進行雙向溝通和互動的能力。交互性的提升使得機器人能夠更好地理解人類的語言、情感和意圖,並作出適當的迴應。人類傾向於以不同於其他物體的方式看待可以與人類進行交互的機器人。有大量文獻表明,人們對機器人的反應是與人互動類似的反應。觸發這種反應的門檻很低:早期的心理學研究甚至表明人們會賦予頁面上移動的形狀以社會角色。達令曾經做過一項著名的實驗,研究人員先讓人們和機器恐龍玩具玩耍了一個小時,後要求參與者使用武器將機器恐龍玩具射殺,所有的參與者都拒絕了。即便告訴他們可以射殺其他的恐龍玩具來保護自己的,他們依然拒絕。這一實驗展現出了機器人越來越能與人進行互動的同時,也可能引起人類同理心。

3.涌現性

人工智能的涌現性指的是在人工智能系統中出現的新特性、新行爲或新結構,這些特性不是由單個算法或模塊的性質所決定的,而是由整個系統的組織、相互作用和學習過程所導致的。人工智能的涌現性可能表現爲系統學習到的意想不到的行爲或解決問題的能力,這些行爲或能力超出了單個組件的能力範圍。涌現性使得人工智能系統具有更高的靈活性和適應性,能夠應對複雜、不確定的環境,並表現出類似於人類智能的特徵。

涌現性並不存在於低層次的單個要素之中,而是系統在低層次構成高層次時才表現出來,所以形象地稱爲“涌現性”。一個常見的例子是螞蟻遵循簡單的規則來完成複雜的、看似智能的任務。系統功能往往表現爲“整體大於部分之和”,就是因爲系統涌現出新質的緣故,其中的“大於”成分就是涌現的新質。系統的這種涌現性是系統的適應行爲體(adaptive agent)之間非線性相互作用的結果。擁有涌現能力的智能體,可能具有一定程度的自主性,能夠根據環境和目標作出自主決策,並採取相應的行動。

(二)具身智能體的社會屬性

具身智能體的具身性、交互性以及明顯的自主行動結合在一起,使其具有社會屬性。具身智能體的社會屬性指智能實體作爲某個社會角色而行動,而智能體的具身性和交互性是其具備社會屬性的前提條件。具身性提供了機器人的物理屬性,交互性則滿足了人類與機器人進行情感交流的需求,從而使機器人的自主行爲具備了社會性。過去的機器人只能重複指令執行行動,而具身智能體則更像一種能夠適應環境的系統。具身智能體自己可以主動感知環境,例如當有一個盒子在它的面前時,它會主動感知並可能嘗試打開這個盒子。

交互性尤其體現了機器人社會性,人們往往傾向於將可互動的移動物體視爲活物,但關鍵不在於機器人是否具有物理形態——畢竟,烤麪包機也具有物理形態——而是在它們的交互性在人類中產生了特定的社會性。交互能力的提升對於機器人“社會角色化”具有重要影響。一旦機器人具備了社會角色,比如家庭機器人成了家庭的一員或伴侶機器人成了人類的伴侶,那麼未來的具身智能設備,如具身智能音箱或類似寵物狗的掃地機器人,很可能會扮演家庭成員的角色。此外,經過有意設計的人形機器人會進一步增加機器人的社會性。總之,無論個人是否瞭解技術的本質或內涵,機器人的社會影響與生俱來,並會隨着時間的推移而持續存在。

智能機器人和人之間的關係通常被理解爲智能機器人擔任照料者、朋友、夥伴以及引起人類浪漫興趣的精神伴侶。在應對超老齡人口社會問題方面,智能機器人被證明是非常有用的工具。人工智能和機器人夥伴已經被看作人類的朋友,並且與人類之間能夠交互影響,形成各類情緒、思想等。與西方國家相比,東亞主要國家表現出了對人形機器人的特別偏好,例如日本政府正竭力將機器人納入社會並使機器人成爲其社會基礎的關鍵部分。通過和大模型結合,機器人已經具備了成爲人類重要助手的能力。2023年阿里巴巴展示其大模型時,工程師通過釘釘發出指令“我渴了,找點東西喝喝吧”,大模型在後臺自動編寫了一組代碼發給機器人,在識別周圍環境後,機器人從附近的桌子上找到了一瓶水,並自動完成了移動、抓取、配送等一系列動作。

因此,與歷史上的任何技術相比,機器人對人類具有更強的社會影響力。在大多數情況下,我們不會對一堵牆說話並期待其迴應,也不會將牆視爲可能的朋友,但機器人似乎與衆不同。心理學家彼得·卡恩和他的同事進行了一系列試驗,試圖瞭解人們如何思考機器人。研究對象既不傾向於認爲擬人化的機器人是活着的,但也不認爲它們是物體。在這樣的研究中,研究對象傾向於將心理狀態的差異歸因於機器人的反應,因爲如果只是與一個物體打交道的話,很難會有諸如感到不適等想法。

當機器人的行爲邏輯很難被理解時,人們往往會沿用既有社會認知來填補空白,因此機器人的擬人化成爲社交互動和社會認知在人類生活中重要性的自然延伸。然而,擬人化也同樣帶來諸多倫理上和法律上的問題,其中之一是可能會混淆真實和虛假,從而破壞社會基本價值觀。本文想要深入討論的問題是智能機器人對隱私這種基本價值的侵害。在討論技術對隱私價值的侵害程度時,取決於該技術在特定場景中收集、處理個人信息的方式是否合理。

二、具身智能體對隱私和數據保護的挑戰

機器人技術和人工智能系統是具身智能體的一體兩面,傑克·巴爾金曾批判如果堅持把兩者區分得太明顯,可能會造成一定的誤區。單純討論機器人或人工智能對隱私價值的威脅是片面的,具身智能技術的具身性、交互性及涌現性凸顯了其社會性特質,展現了其強大的互動和行動能力,對隱私價值產生深遠的影響,也給既有的隱私與數據保護法律規則帶來前所未有的挑戰。

(一)具身智能體的隱私威脅和侵害

許多隱私問題由來已久,當然並不僅由具身智能體所導致。然而,具身智能體強化了數據收集能力和分析能力,增加了隱私入侵的可能性,同時其自主決策和行動的能力容易將隱私威脅轉變爲實害,使得隱私和數據保護所面臨的問題更爲複雜。

1.收集與監視的方式趨向多樣化

以人形機器人爲例,人形機器人比以往任何技術或寵物都更能融入人類的世界,甚至可能比一些家庭成員(如兒童)更能融入,這種互動形式存在欺騙性、隱蔽性、持續性等特質,帶來一系列的隱私威脅。民法典第1032條第2款規定:“隱私是自然人的私人生活安寧和不願爲他人知曉的私密空間、私密活動、私密信息。”人形機器人侵犯隱私的方式是多維的,可能單一侵犯其中一種隱私,也可能同時侵犯多種隱私。

第一,私密空間。具身智能體進入私密空間不易引發人類反感,尤其是具有行動能力的家庭機器人。例如,人們很少會將智能掃地機器人進入臥室視爲對隱私的威脅。心理治療過程中機器人的使用,尤其是機器人已經從提供簡單的情感支持發展到高技能的專業技能,比如24小時陪伴、個性化服務等,在這類機器人面前,用戶是否還保有私密空間幾乎無從談起。此外,人形機器人與人工智能系統不同的是,其行動能力可能會導致更爲惡劣的人身傷害後果,一旦機器人被黑客攻擊,不排除機器人可能隨時會爲有所企圖的第三人打開家門,甚至有些機器人還可能協助破壞家庭財物或“一本正經地胡說八道”來嚇唬老人或孩子。

第二,私密活動。人形機器人可以全方位、持續性、無間斷記錄個人私密活動。一方面,人們很少會考慮到需要避開機器人從事私密活動。實時攝像頭開始進入家庭後,實際上家庭攝像頭除了具有防盜功能,還會拍攝並實時記錄家庭中其他成員的私密活動,而具身智能體必然配備實時攝像功能,同時其移動能力更是爲記錄用戶的私密活動提供了可能。另一方面,機器人可能會滿足人類從事私密活動的需求,例如據媒體報道,性愛機器人就十分具有市場前景。爲滿足和人類的交互性功能,人形機器人配備了一系列先進的傳感器和處理器,大大放大了對環境信息和個人信息的收集和記錄能力。比如近日美國AIbotics公司最新研發的按摩機器人,該機器人搭載AI功能,通過傳感攝像頭對用戶的背部進行掃描建模,並可自主規劃按摩路徑。這些被收集和記錄的私密活動或個人信息,會被存儲在公共雲或名義上的私有云中,一旦泄露,後果不堪設想。

第三,私密信息。人形機器人收集的信息性質較以往敏感度更甚。首先,人形機器人可能引導用戶有意無意主動透露私人或敏感信息,涉及操縱用戶。有研究表明,智能系統的具身化具有親和力,可能增加用戶的風險容忍度並減少其隱私擔憂。同時,有研究表明裝有“面孔”和“眼睛”的具身智能伴侶能以看上去有感情的方式迴應用戶的需求。人類潛意識的反應,都會被記錄下來。無論是通過機器人的感應設備,還是嵌入爲代碼,相關數據都會被固定存儲在文檔中。其次,人形機器人可以近距離接觸並不斷分析信息主體,通過大模型推斷出個人信息、敏感數據,最終可能比主體本身更瞭解自己。比如機器人可能收集生物識別信息進行人臉識別或情感計算等。洗碗機或自動烘乾機的運行數據很難說明其使用者的性格,但作爲伴侶的人形機器人的運行數據卻能傳遞很多敏感問題。

2.無法預測的自動化決策和行動相結合

與其他智能系統不同的是,除了自主決策,具身智能體還可以將決策轉化爲行動,因此威脅很可能成爲實際損害。機器人學領域的學者托馬斯·謝里丹提出了一種四階段信息處理模型:(1)信息獲取(觀察);(2)信息分析(定位);(3)決策選擇(決定);(4)行動實施(行動)。設想智能機器人在公共場所突然對人羣發起攻擊,這對於不具備行動能力的智能系統而言顯然無法做到。2017年2月歐洲議會通過的《機器人民事法律規則》指出,機器人的自主性可以被界定爲在外部世界作出獨立於外在控制或影響的決定並實施這些決定的能力。該定義包含了兩個具體層面:一是獨立作出決定的能力,二是實施決定的能力。

一方面,具身智能體可以自主決策。第二次世界大戰後,歐洲法律一直在努力使人處於自動決策過程中——無論是通過允許公民堅持由人作出特定決策的權利,還是需要人蔘與的平臺責任。因此歐盟法上對於完全的自動化決策,即無人干預的自動化決策一直都是持原則上禁止、例外允許的立法態度。然而,人工智能的涌現能力賦予了機器人自主性。其在不同環境中的反應和決策甚至不是其設計者可以預料或事先控制的,這種不可預測性源於算法的複雜性,包括那些能從過往經驗中學習的算法,還可能包括了多層創新、數字系統的生成性以及數據的流動性等原因。機器可以使用檢測到的模式對某些複雜的事物作出有用的決定,而不需要像人類那樣理解它們的潛在意義。因此,完全自動化的決策在具身智能體的情形下完全可以實現,其表徵是機器人顯得會“思考”和能與人“共情”。但這種無法預測的自主決策能力一旦失靈,在對個人影響重大的事項上直接作出決定,那麼可能會對個人權益造成極大的傷害。

另一方面,具身智能體可以自主行動,行動必然導致一定的後果。過去的人工智能系統,包括生成式人工智能,都不具有行動能力,換言之其本質上更像是一個決策輔助系統。但是,一旦不可預測的自主決策與行動能力相互結合,很可能會帶來某種程度的實害。從隱私和數據保護的角度來說,具身智能體對隱私的侵害行爲表現爲三個類型:一是表現爲未經個人同意進入、拍攝、窺視他人的私密空間,智能體可以直接進入一些其他人難以進入的私密空間並進行拍攝;二是未經同意拍攝、窺視、竊聽、公開他人的私密活動,智能體的拍攝可能是爲了與人類互動所需,但人類無法預測其下一步行動,是否會將私密活動的音視頻傳輸或公開等;三是未經個人同意處理他人的個人信息,包括將個人數據傳輸給第三方或者故意或重大過失泄露個人的隱私信息等。

(二)既有隱私與數據保護規則的困境

既有的隱私和數據保護法建立在個人信息控制論基礎之上,但無論是機器人技術還是生成式人工智能,都具有“反控制”的鮮明特質,與既有的規則之間存在不可調和的衝突。此外,具身智能體數據的生成和涌現加上造成實際傷害的能力可能會使追究責任變得不切實際。

1.個人信息控制機制的失靈

數據保護圍繞着個人信息控制進行了全面的規則設計,包括“告知—同意”“目的限制”“最小必要”“信息處理中的個人權利”等。具身智能體的社會性帶來了與用戶互動的新方式:收集用戶信息並潛在地影響用戶行爲,同時在不可預測的情形下展開行動。以人形機器人爲例,個人信息控制機制的失靈體現在多個方面:

首先,“告知—同意”規則受到更爲嚴重的質疑。信息隱私長期以來在某種程度上都與控制有關,同意作爲控制的手段,是數據保護的核心。人形機器人影響個人的方式更加微妙、更加自動化、更加不透明。且不論人形機器人能否做到充分告知數據收集和利用的政策,即便能通過技術手段解決告知問題,面對類人的機器人,人們是否還有足夠的理性作出最符合自身利益的決定?尤其是當機器人具備情感交流等交互特質時,引誘用戶作出的同意是否有效?如何判斷機器人是否存在引誘等行爲?此外,對敏感個人數據的收集和處理如何做到單獨同意?如果機器人與用戶交流時不斷彈窗單獨提示可能會收集用戶的敏感信息並要求其同意,勢必影響到用戶體驗,二者之間又如何協調?在未成年人數據保護方面,兒童是使用陪伴型具身智能體的主要人羣之一,機器人往往是在家長無暇或無須取得其監護人的明示同意規則?

其次,目的限制原則在具身智能體場景下被無限突破。目的限制原則被一些學者稱爲數據保護中的“帝王條款”,是個人信息控制的實現方式。根據個人信息保護法第6條第1款,該原則要求“處理個人信息應當具有明確、合理的目的,並應當與處理目的直接相關,採取對個人權益影響最小的方式”。具身智能體可以無時無刻持續收集用戶的個人信息,包括敏感個人信息,然而具身智能體的涌現性特徵和自主行動的特徵,讓信息處理者根本無從判斷信息收集使用的最終目的,這從根本上突破了數據保護中的目的限制原則。

再次,最小必要原則在具身智能體場景下幾乎不可能實現。從體系解釋上,最小必要原則依賴於目的限制原則,數據的收集和處理應當在合理目的的範圍內最小化,超出合理目的範圍的收集就是不必要的。一方面,必要性原則作爲個人信息處理的整體性原則,不能通過告知同意規則進行規避。另一方面,具身智能體自主行動的特性顯然無法滿足目的限制和最小必要原則,因爲智能體必須不斷收集環境和個人的數據,才能依據這些數據來進行決策和判斷下一步的行動,而且在目的並不明確的情形下,有意義的“最小必要”根本無法保障。

最後,完全自動化決策拒絕權被架空。既有的數據保護法從某種程度上對人工智能系統中的數據保護是有所考慮和規定的,比如賦予信息主體拒絕權以防止完全自動化決策對個人生活的影響及傷害。然而,自動化決策及行動是具身智能體的本質屬性,信息主體在知悉和了解該屬性的前提下,接納具身智能體進入個人的生活,是否就等同於同意和接受了完全自動化決策和自主行動可能帶來的實際影響?如此,數據保護法中的信息主體的拒絕權還有無必要?是否還有實現的空間?

除上述列舉外,無論是從權利的角度賦予個人對信息的控制權,還是從義務的角度要求處理者履行對信息的處理義務,數據保護的許多規則均依賴於對信息的控制。然而在自主涌現系統中,很多情形下會對控制進行顛覆,例如用戶給人形機器人佈置了陪伴老人的任務,機器人卻以一種意料之外的方式完成了這個任務,比如通過泄露用戶隱私來吸引老人的注意力。概言之,過去的數據處理整體上是線性的,“收集—分析—決策—使用”,每個環節個人或處理者都有一定的控制權,數據生成模糊了數據收集和數據處理之間的界限,非線性處理方式的複雜性會增加控制的難度,使得許多隱私保護法律變得無效。

2.侵權責任難以歸責

隱私和個人信息侵權事件中,由於往往不知道是哪個環節泄露了個人信息,確定責任主體的困難嚴重阻礙了受害人的訴訟積極性。疊加大規模微型侵權的維權成本和訴訟收益之間不成比例,侵權責任中的因果關係難以釐清等現實困境,受害人很少會通過訴訟途徑進行維權。除了上述固有的隱私與數據保護難題,具身智能體侵權的獨特性在於,一旦用戶的隱私或個人信息權益受侵害,如何準確界定侵權主體以及界定侵權責任將成爲核心議題。

具身智能體能否成爲侵權主體?這一問題可還原爲具身智能體是主體還是工具之辨。機器人越來越模糊了人與工具之間的界線,2017年沙特阿拉伯宣佈授予機器人“索菲亞”以公民資格,這就促使法學界進一步思考具身智能體是否具有獨立的主體地位。肯定觀點認可人形機器人具有類人的特性,尤其是深度學習、神經網絡等技術賦予了人形機器人生成“觀點”、自我“反思”、“感受”環境等與人相似的技能,甚至有些領域的機器人可以在“反事實”層面與世界互動,而具身的存在可以讓機器人在感性世界中行動,成爲類人主體意義上的存在。此類可以反思、互動及行動的機器人形象在各種影視作品中並不鮮見,未來可基於現實需求從侵權責任主體開始,承認人工智能的法律主體地位。

反對觀點則認爲機器人現在是、未來仍將是工具。機器人是(可以)運用複雜軟件的高級工具,但本質上無異於一把錘子、一臺電鑽、一個文字處理軟件、一個網絡瀏覽器或者車裡的剎車系統。人格理論經過幾個世紀的變革,即使把純粹技術性的法人納入了主體的範圍,但本質依然是倫理性的,是自由意志。機器人是否已經擁有了自由意志?自由意志包含了三個階段,分別是感覺、感知和自我感知。感覺已經可以通過傳感器技術實現;感知則可以通過數據的收集分析和解釋;但是機器人是否已經實現了自我感知,即便到目前,依然是一個未知數。有學者斷言,人工智能或許可以進行快速的計算,但是它缺少精神。至少從中短期來看,無論是技術能力還是社會環境,似乎都還沒有到人工智能法律人格獲得廣泛認可的階段。

一方面,將具身智能機器人完全歸類爲主體或工具均有一定難度,另一方面人們普遍傾向於像對待人一樣對待具身智能體,這一悖論威脅了主客體二元價值觀。也使得在具身智能體侵權事件中確認責任主體難上加難,法律主體責任說之外,還產生了產品責任說、高度危險說、用人者責任說等代表性觀點。總之,機器人的擬人化不是賦予其法律人格的理據,但是,考慮到一般社會大衆與這些機器人接觸時,在某些特定環境下易陷入“人格化陷阱”,且自主行動的機器人決策的背景、依據、機理、程序等甚至連程序設計者都無法洞察,似乎應該賦予智能體有限責任。

由於人工智能體的法律人格難題,導致侵權責任主體不明確,具身智能技術的發展使得這一界定變得更加模糊。在涉及人工智能體的侵權案件中,設計者、製造商、所有者以及實際使用等均可能對侵權行爲承擔某種程度的責任,但是現行的法律體系並未充分考慮到這些新的責任主體。

三、具身智能體場景下的隱私和數據保護

具身智能體侵害隱私的行爲極具迷惑性,責任主體更難確定,隱私與數據保護的理論和既有規則均難以迴應。爲紓解具身智能體場景下隱私與數據保護的困境,一方面應當對既有規則框架進行改進,以更好地適應具身智能場景;另一方面在即將開展的人工智能立法中,應當加強對數據保護相關理念的植入,確保其符合法律和倫理要求。

(一)數據法中隱私與數據保護規則的轉進

傳統的個人信息同意機制本身在應對大數據和人工智能的挑戰時已經舉步維艱,這種困難在具身智能體的背景下更加凸顯。過度依賴同意機制可能會導致忽視其他重要的隱私保護措施。但完全取消同意機制可能剝奪個人對其個人信息處理的控制權,違背了數據保護的核心原則。

1.避免過度依賴個人同意制度

早期的討論主要關注在數字時代消費者或公民能夠多大程度維護個人信息的控制權,因此個人信息同意機制成爲各國數據立法的重要選擇。但人工智能的數據收集方式使得用戶同意機制形同虛設。智能系統收集大量用戶數據的目的和用途往往是未知的,大量研究表明,人們並不清楚自己在同意什麼。目前各大互聯網公司已經在更新其隱私政策,表明其將使用用戶個人信息以支持其人工智能的開發。因此,同意制度一旦被處理者所濫用,可能異化成爲個人信息處理的“自由通行證”。比如信息處理者往往藉助一攬子同意爲不當處理或濫用個人信息的行爲免責,或是通過獲取用戶同意超過必要範圍收集用戶個人信息。這些行爲顯然違反了個人信息保護中的安全保障、目的限制、最小必要等原則。同意機制已經淪爲了一塊遮羞布,只是爲了展示形式上符合法律法規的數據合規。

驅動具身智能體的算法進一步使得問題複雜化,這些算法依賴於大量的數據,爲了能夠評估其風險,人們必須成爲專業的數據科學家,同時還必須能夠審查用於訓練算法的數據,顯然這是不可行的。在生成式人工智能的背景下,即便是設計者也並不一定真正知曉決策的背景和邏輯,因此,要求對決策的基礎和決策的過程幾乎一無所知的用戶作出基於真意表示的同意,顯然違背了賦予個人同意的初衷。

此外,人形機器人等具身智能體可能涉及引誘、操縱用戶等情形,這更放大了同意制度本身的缺陷。個人面對引誘或操縱時,可能會受到情緒、壓力、欺騙等因素的影響,無法在理性的情形下作出決定,導致決策失誤,比如一個擬人化的機器人吸塵器在瞭解用戶的個性後,在軟件升級時發送悲傷的表情引導收取費用。因此更應避免過度依賴個人同意制度。

最後,應當認識到的是,購買者主動購買或使用具身智能體,比如家庭機器人,並不意味着購買者主動對隱私進行了讓渡。有觀點認爲如果個人真的重視隱私,可能會選擇不購買這些產品。這一觀點是對數據處理中的同意制度的誤讀。一方面,同意購買並不等同於同意處理,儘管可以將同意處理作爲附加合同條款寫入買賣合同,但這樣的行爲可能被視爲一種搭售,違反了當事人的自由意志,屬於不公平的合同條款,可能導致相關合同條款無效或部分無效。一旦發生損害用戶個人信息權益或隱私的事件,該種同意無法作爲商家或設計者的免責事由。另一方面,同意處理個人信息也並不意味着同意濫用和同意損害個人權益,信息處理者在處理個人信息的時候依然要遵循個人信息保護法的相應原則和規則。因此購買合同中的信息處理附加條款只能意味着用戶在一定程度上了解機器人可能會有一些潛在的風險,但並不意味着就完全讓渡了隱私,這樣的同意也無法爲後續所有的信息處理賦予合法性基礎。

2.弱化同意機制並不等於取消同意

完全取消知情同意機制並不可取,弱化同意機制並不等於取消同意。在具身智能體場景下,同意機制很難真正保障個人對個人信息的控制,但並不能因爲完美的個人控制的不可能,就得出有效的控制不可能的推論。就像鎖可以被撬開,並不意味着鎖毫無用處。即使是部分的控制,也能有強有力的影響。況且保留同意機制以保障最低限度的自我裁量,有利於強化用戶的主體意識,而非退化爲“襁褓中的嬰兒”,由機器人來決定和安排自己的生活。人的自由裁量確實有時候是代價高昂、效率低下且容易出錯的,但如果讓渡這種自由裁量,無疑是讓渡了人的主體性。

具體操作上,可以對同意機制進行制度上的改良。比如智能系統可以通過主動身份驗證、聲音驗證、人臉驗證等方式來識別出特定羣體,並據此採取不同的同意機制。根據人羣的不同,可以區分弱勢羣體和非弱勢羣體。所謂的弱勢羣體,可能包含了未成年人、老年人、精神脆弱羣體等。比如針對未成年人,確保未成年人使用機器人時有家長的同意,比如自動給家長的智能手機發送實時通知並獲得家長的有效同意;針對老年人羣體,採取簡單易懂的同意方式,避免過於複雜和冗長的說明,比如通過輕鬆日常的對話等方式來告知使用機器人可能有的隱私風險;針對精神脆弱羣體,需要特別關注其心理狀況,並結合輔助人員或醫護人員協助其作出符合其心智特徵的同意。

對於非弱勢羣體,爲確保信息主體能夠對其個人信息保持持續的控制,有學者提出可以採用動態同意模式,以應對數據及其在人工智能體中使用的不斷變化的性質。在這種模式下,個人可以根據自己的意願和偏好隨時更新和修改對數據處理的同意範圍、同意內容以及同意方式。同時爲避免反覆徵詢授權致使數據主體安寧權受損,可默認一定時間的“連續授權許可”。即在一定期限內,個人的同意可以持續有效,無需頻繁重新確認和操作。

此外,具身智能體場景往往涉及敏感個人信息的收集和處理,根據個人信息保護法的規定,“只有在具有特定的目的和充分的必要性,並採取嚴格保護措施的情形下,個人信息處理者方可處理敏感個人信息”。除單獨同意之外,可以借鑑醫療決策中的參與式同意方式,參與式同意模式強調用戶的積極參與和充分理解,即一旦涉及敏感個人信息,需要反覆和用戶溝通處理的範圍和處理的手段,反覆確認用戶的意願,最終和用戶共同決策實現合法正當的信息處理,提升人機交互的用戶信任度和滿意度。

(二)人工智能立法中的隱私和數據保護

人工智能立法已經邁入大規模立法新階段,2023年6月,中國國務院辦公廳印發《國務院2023年度立法工作計劃》,明確提出“預備提請全國人大常委會審議人工智能法草案”。以歐盟《人工智能法案》爲代表的立法採取了“弱化個人控制,強化損害和風險”的模式,通過制定預防性的規則,歐盟法案更關注開發或實施人工智能系統的參與者(提供者),以填補數據保護法留下的一些空白。

1.通用型具身智能體市場化的禁止

早在20世紀60年代初,人工智能概念的提出者之一明斯基就認爲,“程序設計者肯定可以創立一個不斷演化的系統,而其發展界限是他不清楚和可能無法理解的”。而圖靈則提出了通用計算機概念,並且還設想了建造計算機用於模擬人工智能的可能性,包括怎樣測試人工智能以及機器怎樣自主學習。因此,通用型人工智能是計算機科學家的理想,也是科幻作品中最具代表性的一類機器人原型,它們幾乎等同於人類,可以在多個任務線之間隨意切換,可以同時扮演不同的身份和角色。如兩位人工智能領域的先驅所料,日前英偉達公司已在組建通用具身智能體實驗室GEAR,該實驗室的目標之一是研究和開發通用型機器人。通用型機器人也許很快可以在實驗室問世,但市場化的智能體必須是功能導向的,且須有明確的應用場景。

歐盟《人工智能法案》將人工智能應用場景的風險分爲:不可接受的風險、高風險和有限風險,製造不可接受的風險的人工智能系統將被禁止。可見,該法案中對通用目的人工智能(GPAI)進行了限制,明確規定其可能被視爲高風險人工智能系統。筆者以爲,通用型具身智能體(或通用型機器人)的風險是不可接受的,應當被禁止。從隱私與數據保護角度出發,主要有以下幾個方面的原因。

第一,通用型智能機器人可能會涉及廣泛的數據收集和處理,它們被設計成能夠適應各種不同的場景和任務。“生成式的人工智能系統並非爲特定的場景或使用條件而建立,其開放性和易於控制使其具有空前的使用規模。”因爲其功能面向廣泛,涵蓋多個場景,因此在收集和處理信息時往往無法滿足目的限制原則和最小必要原則的要求,信息的使用也無法控制在特定的範圍之內。如果一個被設計用來陪伴老人的陪伴型智能機器人,在陪伴的過程中利用收集的老人個人信息進行自動化決策購買廣告商品,家庭和商業不同的社會場景有不同的目的,前者注重對人的陪伴和照顧,後者則要求經濟利益的最大化,這兩者之間會產生一定的衝突,如果要求機器人同時兼顧上述兩種目的,就會導致陪伴型機器人自動購買商品等事件,這顯然是不合適的。

第二,不同的場景對收集的數據數量和質量有不同的要求。比如在家庭場景中的陪伴型機器人和在商業場景中的智能體就存在顯著區別,前者重數據質量相對輕數量,主要原因在於前者服務於少數家庭成員,需要精準滿足和理解家庭成員的需求和偏好,因此收集的數據必須準確和可靠,以提供高質量的個性化服務。而商業場景中更重數量,對質量要求則沒有那麼高。原因是智能體往往服務於商業決策、市場營銷等功能,爲更好了解客戶需求和市場趨勢,需要收集大量的數據,而對數據質量的要求可能相對靈活。

第三,智能機器人作爲特殊用途的“人類”,如果設定特定的場景,爲特定的原因或功能而存在,在行爲方面模仿人類相對容易,但通用型機器人的“領悟”和“模仿”較弱,還不足以模仿人類的微妙心理和在不同場合下調整其言行。如果機器人無法準確模仿人類的行爲和心理,那麼在特定情境下使用它們可能會導致誤解或不當行爲,進而影響到個人的隱私和個人信息權益。因此,明確機器人不能通用化,而應該針對不同場景進行應用,是必要的。

此外,缺乏具體社會場景的具身智能體權責不明,無法形成相應的法律關係。從社會技術視角來說,具身智能體的運作和影響都嵌入在社會結構之中,唯有如此纔可以更好地發揮其服務人類的作用。技術進入人類的生命和活動網絡之中,併成爲其組成部分,因而產生了相應的後果。技術影響並不是事物本身的特徵,而是使用這些事物的社會關係的特徵。因此,圍繞着智能機器人在不同社會場景下的角色,發生的一系列法律事件或法律行爲,最終導致了主體的權利得喪變更。比如醫療人工智能、司法人工智能與完全自動化的替代性自動化駕駛汽車,其與用戶之間的社會關係不同,引發的風險不同,法律關係自然也不相同。實際上,技術所引發的法律關係有兩個不同的層面:其一是新技術如何影響人們的生活,其二是人們如何與使用新技術的其他人交互。當通用機器人的社會地位不完整、場景不確定,甚至是隨機的時候,這種法律關係就也是不確定的。因此,只有在具體的場景中,具身智能體的功能和作用纔是明確的,因而其中的法律關係和法律責任也是清晰可識別的。

2.人工智能設計中的數據保護原則

隨着具身智能系統越來越多地處理敏感個人信息,如何通過預防性的措施來保障用戶的隱私和安全成爲人工智能立法的重點。即便在人工智能將以不可預見的方式發展的情況下,人工智能的設計者或生產者仍然可能會被認爲是理解和控制風險的最佳人選。“通過設計的數據保護”早已是數據保護領域默認的一項重要原則,這項原則主張隱私和數據保護應該被整合到設計階段。強調了需要制定健全的數據保護政策和實踐,以防止個人數據的濫用和未經授權的訪問。既往的研究早已表明“代碼即法律”,輸入系統中的知識和建模過程中涉及的假設可能反映了系統設計者的偏見,計算機硬件和軟件的組合,像其他形式的規範一樣,可以限制和引導人類行爲。

結合具身智能技術和應用的特點及隱私與數據保護之要求,設計者設計系統時,有幾個方面可以綜合考慮:(1)設置隱私,即設計者保障用戶在隱私保護中的參與,在系統或應用程序中提供用戶自定義設置信息收集和處理的功能。(2)數據自動刪除,即在收集和處理敏感個人信息或臨時性的瀏覽數據後,除非有充分的必要性,否則在一定期限後一概自動刪除此類數據的功能。(3)匿名化和去標識化。設計者可以在收集和存儲數據過程中對個人的身份信息進行處理,確保通過一般性的技術手段無法識別到特定個人。(4)位置隱私保護。個人位置信息的特殊性質決定了其一旦被泄露,可能會影響到個人的人身自由和人格尊嚴,因此應當採取原則上禁止、例外允許收集的方式。尤其是具身智能體有行動的能力,更應當明確禁止其收集用戶的位置信息。

以上種種設計隱私的策略,只是設計中的“冰山一角”,此外,監管機構對設計者的問責機制也不可或缺。針對侵權主體難以確定的問題,通過設計的數據保護義務也成爲設計者“可責性”(account ability)的理據。可責性指的是確保相關參與者對其行爲和決策承擔責任,並能夠提供解釋和證明其行爲的合理性和合法性。換言之,在無法明確侵權主體或責任成立的因果關係無法查明的情形下,被侵權人完全可以依據設計者對系統的可責性進行訴訟,由設計者舉證證明自己不承擔具身智能機器人侵權的責任。已有研究表明,在設計智能機器人的時候,設計者會將更深層次的哲學、倫理甚至政治觀點有意無意融入設計工作中,因此應該更多地思考(機器人)運行的環境以及人類對設計這些環境的責任。在具身智能體的背景下,可責性涉及確保設計者和監管者對於應用的功能、數據收集和處理、算法運行等方面負有透明度、可解釋性義務,並能夠接受外部審查和監督。這有助於防止濫用、不當使用數據或算法的情況發生,並提高對於應用運行的合理性和合法性的信任度。

結語:隱私理論的又一次迭代?

科幻作家威廉·吉布森在《神經漫遊者》中曾說:“未來已至,只是分佈不均。”我們對技術的想象,經歷着從不可能到可能。如果說過去討論機器人技術還有很多幻想和寓言的成分,那麼現今智能機器人正在成爲現實社會的一部分,深刻影響人類生活。歷史上,技術的每一次革新都引發了隱私理論里程碑式的發展。便攜式相機的日常化,使得偷拍變得輕而易舉,因而沃倫和布萊代斯在《隱私權》一文中呼籲一種“不受干擾的權利”;小型計算機的普及及存儲能力和計算能力的增長,使得個人數據被無限記錄和存儲,大規模泄露也成爲可能,因此引發對數字利維坦的恐懼;進入21世紀以來的智能技術的發展,更加劇了對算法黑箱等問題的擔憂……

具身智能技術對隱私產生了衆多挑戰,雖然這些挑戰並非全新,但毫無疑問,它們讓問題變得更爲複雜和棘手。對既有的隱私和數據保護法律制度的“剪裁”和“縫補”已不足以全面迴應這些難題。理論上的革新和迭代已經勢在必行,本文雖無法從根本上解決這一龐大的理論難題,但亦希望爲未來的研究提供一點思考和啓發。

(本文來源於《東方法學》2024年第3期)

專題統籌:秦前鬆