歐盟、美國和日本人工智能治理模式
原標題:歐盟、美國和日本人工智能治理模式
人工智能的出現大大提高了數字時代的社會生產力,但人工智能也引發了一系列數據、倫理和社會問題。爲此,多國政府頒佈了人工智能相關法律法規。由於法律傳統、人工智能技術、政策導向等因素的不同,不同國家和地區的人工智能治理模式存在差異。歐盟、美國和日本的人工智能治理模式各有特色:歐盟呈現以倫理優先爲導向的集中式治理模式;美國呈現以創新優先爲導向的分散式治理模式;日本則呈現以技術發展爲主導的非約束性軟法治理模式。雖然人工智能治理路徑各具特點,但謀求發展與安全、平衡促進與規制是一致性目標。
歐盟:以倫理優先爲導向集中式治理
在治理理念方面,歐盟的人工智能治理模式堅持倫理優先,主張在促進人工智能發展與創新的同時,防範人工智能風險,確保公民基本權利和安全。2018年12月,歐盟委員會發布了《人工智能協調計劃》,明確提出將歐盟建設成爲開發和部署前沿性、合倫理性及安全性的全球人工智能治理領導者目標,並在全球範圍內推廣倫理優先的治理方法。2019年4月,歐盟委員會出臺《人工智能倫理準則》,確定了人工智能治理的尊重人類尊嚴、防止傷害、公平和可解釋性四項倫理原則,並提出了實現這些原則的七項要求,即應有能動性和監督能力、安全性、隱私數據管理、透明度、包容性、社會福祉和問責機制。2023年6月,歐洲議會通過《人工智能法案》,主張人工智能應當符合人類倫理,不應背離人類基本道德和價值觀。
在治理架構方面,歐盟採取自上而下的垂直治理架構。歐盟以《通用數據保護條例》(以下簡稱《條例》)爲基礎,形成了從歐盟到成員國再到企業層面的垂直治理體系。具體而言,在歐盟層面,設立歐盟數據保護委員會和歐洲數據保護專員公署,負責數據治理和協調,確保《條例》在成員國中得到一致執行。在國家層面,每個成員國在域內設立專門的數據治理機構,如丹麥的數據監察局和法國的國家信息與自由委員會,負責監督《條例》在本國的實施情況,並對相關事件進行深入調查。在企業層面,企業、公共機構等設立數據保護官,負責監督機構內部對《條例》義務的履行情況,並與數據治理機構進行合作。
在治理強度方面,歐盟治理模式較爲嚴格,對企業的數據保護和隱私要求較高,企業擁有的容錯空間較少。爲了科學且系統地規制人工智能風險,歐盟提出了分類管理的方法,並設立了監管沙盒、高風險人工智能系統數據庫,以平衡風險規制與激勵發展的訴求。此外,歐盟《人工智能法案》爲人工智能系統開發者和服務提供者設定了一系列義務,主要包括:識別和減少對健康、安全、權利、環境、民主和法治的可預見風險;僅使用受適當數據治理措施約束的數據集;設計、開發基礎模型以實現適當性能;利用公佈後的標準設計、開發基礎模型,減少資源浪費等。
美國:以創新優先爲導向分散式治理
在治理理念方面,美國人工智能治理模式堅持創新優先,強調維護和促進人工智能技術的創新發展。從2011年美國“國家機器人計劃”、2016年《美國機器人發展路線圖——從互聯網到機器人》《國家人工智能研究和發展戰略計劃》,到2023年《國家人工智能研發戰略計劃》,均鼓勵人工智能創新發展、高效競爭。2023年10月30日,美國總統拜登簽署頒佈《關於安全、可靠、可信地開發和使用人工智能的行政命令》,明確了美國發展的重要方向是人工智能。作爲目前美國最爲完善的人工智能行政規範,該行政令意在根據風險等級和影響領域,綜合利用“標準+測試”“最佳實踐”等治理手段,確立人工智能安全的新標準,促進創新和競爭,確保美國在人工智能技術和產業領域的全球領先地位。
在治理架構方面,美國人工智能治理架構呈現分散的特點。一方面,美國採用分散式治理架構,各州擁有獨立的立法權和執法權,可以獨立制定和實施自己的法律。在數據治理規則上,聯邦政府傾向於行業主導的模式,而州政府則採取了更爲綜合性的立法方式,如《加州消費者隱私法》和《加州隱私權法》等。分散式治理架構使得美國人工智能治理架構兼具靈活性和高效率。另一方面,治理架構具有多部門協同的特點。美國的人工智能治理涉及多個聯邦部門和機構,如白宮科技政策辦公室、消費者金融保護局、司法部、聯邦貿易委員會等,相關部門在各領域內負責審查和監管人工智能技術的風險和應用。
在治理強度方面,美國模式呈現企業友好型和弱治理特徵,給予企業更多的容錯空間和創新自由。2023年7月21日、9月12日,拜登政府先後召集15家人工智能領軍企業,共同作出自願性承諾,旨在提升人工智能系統和產品的安全性和可信度。與歐盟的嚴格治理模式相比,美國多數州的《消費者數據保護法》賦予了中小企業一定的豁免權,減少了中小企業的合規負擔。同時,諸如《加州消費者隱私法》等相關法律並沒有對數據控制者和處理者的義務進行嚴格和系統的規定。儘管2023年美國參衆兩院已召開超過30場關於人工智能的聽證會,同時聯邦貿易委員會、商務部、管理和預算辦公室、國防部等各部門及其下轄機構也圍繞人工智能發佈了各種研判和報告,但這些報告仍側重於原則性要求的闡述,尚未形成具體、可執行的義務性內容。
日本:以技術發展爲主導非約束性軟法治理
在治理理念方面,日本人工智能治理模式以優先發展技術爲前提,主要採用政策性文件等方式對人工智能進行規範。日本確立人工智能治理遵循以人類爲中心、教育、隱私保護、確保安全、公平競爭、問責制和透明度、創新等7個原則。2023年8月,日本政府宣佈制定《人工智能指導方針》,旨在爲人工智能企業的研發與應用提供參考,以期促進人工智能企業自願採取行動,實現“以人類爲中心的人工智能社會”願景。
在治理架構方面,日本建立了多元化、多層次、多主體的治理架構。在治理主體上,日本納入了政府、行業、企業以及社會等多元主體。其中,政府以引導爲主,通過民主討論的方式凝聚共識,推動政策實施;行業協會與相關經濟團體協同參與監管,確保政策的落地與執行;企業則提供詳盡的技術信息,明確促進人工智能技術發展的具體要求,同時積極發揮自主規範與自我監督的效能;社會團體作爲第四方力量,從多元化視角提出具體治理需求。在制度架構上,日本構建了包括原則層、規則層、監督層以及執法層的多層級架構。原則層設定人工智能倫理治理的目標,規則層確立實現上述目標的路徑,監督層引導企業自主規範,執法層對違規行爲進行追責。目前,日本人工智能治理仍以軟法爲主,缺乏強制力,一定程度上影響了治理效果。
在治理強度方面,日本對人工智能的規制力度不大。日本政府通過建立獎優懲劣的激勵機制,增強企業與政府之間的合作,爲企業營造了寬鬆發展環境。首先,政府邀請在人工智能領域佔據領先地位的企業代表參與規則制定,既確保所制定的規則具有前瞻性,又增強了企業履行規則的責任感。其次,政府每年對企業開展監管調查,表彰在實踐中表現優秀的企業,以此帶動行業整體發展。最後,行業團體爲符合條件的優秀企業頒發合格證書。例如,2022年4月實行的“人工智能雲服務的安全、信賴信息公開認證制度”是專門對雲服務運營商安全、信賴信息公開現狀認證的制度。通過認證的企業可以提高客戶對其的認知度,這種認證在未來很可能會成爲市場準入的重要標準或先決條件。
歐盟、美國和日本在人工智能治理問題上採取了不同的模式,反映了各自的政治制度、文化傳統和經濟發展需求。域外人工智能治理實踐表明,人工智能治理模式的構建應立足自身,正確把握國情差異性,在處理好技術創新與風險管理的同時,促進人工智能產業的健康發展。
(人民法院報)