2020北京智源大會 楊強:AI的新三定律:隱私、安全和可解釋性

6月24日,由北京智源人工智能研究院主辦,爲期四天的2020北京智源大會“雲上”圓滿落幕。在當日下午舉辦的全體大會和閉幕式上,圍繞大會主題“人工智能的下一個十年”,香港科技大學教授微衆銀行首席人工智能官楊強教授發表了題爲《AI的新三定律:隱私、安全和可解釋性》的主題演講,以線上直播的形式,從AI與人類關係出發,與國內外3萬多名人工智能領域科學家行業人士探討如何解決人工智能面臨的發展問題

香港科技大學教授、微衆銀行CAIO楊強教授

AI和人類如何共存?AI會最終替代人類嗎?到底是AI更聰明還是人類更聰明?這些科幻片中的場景和疑問,在現實世界裡也正在快速落地

演講伊始,楊強教授由人們熟知的“機器人的三定律”切入,指出雖然無人機、無人車、無人商店等無人化AI概念盛行,但實際上AI需要人類做夥伴,人類也需要AI做夥伴。在AI與人類的關係上,他提出AI的發展是爲人類服務的「新三定律」:AI需要保護人的隱私,AI需要保護模型的安全,AI需要人類夥伴的理解。

可以AI,但請不要讓我“裸奔”

對於定律一,楊強教授表示用戶隱私是人類的一個重要利益,因此AI首先需要保護人的隱私。AI的力量來自大數據,面對人工智能領域實際存在的數據孤島問題、國內外數據監管等問題,「聯邦學習」這一解決方案應運而生。它的主要思想可以總結爲數據可以保持在原地,但是模型通過不同機構之間的溝通,在加密的狀態下,這個模型會成長起來,它的效果就是數據可以被使用,但是各方都看不見對方的數據。總結起來就是“數據不動模型動,數據可用不可見”。

根據各方之間數據特徵樣本ID的數據分配方式,聯邦學習基本上形成了兩大類別:一個是橫向聯邦學習,在To C方向廣泛應用;一個是縱向聯邦學習,數據ID相同,特徵不同,主要是針對To B的應用場景。縱向聯邦學習由微衆銀行首先發起,現在國內很多大型企業都積極加入研發。在聯合多位人工智能專家出版的《聯邦學習》中,楊強教授分享了聯邦學習研究最新進展,對於隱私保護的機器學習解決方案作了更爲具體的表述。

演講期間,楊強教授特別指出,在抗擊新冠肺炎這個特殊時期,健康碼在國內得到快速、廣泛應用,爲復工復產提供了便捷支持,充分體現了我國大規模互聯網化的優勢。他向衆多人工智能領域從業者拋出了一個問題:如何在使用健康碼快速控制疫情情況下,同時保護用戶的隱私?比如,可否當一個用戶在查詢自己是否和新冠病人無意接觸過的時候,所有設及本用戶的計算都在本地進行?這樣,藉助出行、消費等場景信息的獲取,在端設備上的AI輕而易舉掌握了個人的行程隱私數據,在對於用戶健康碼等隱私信息的保護問題上,藉助數據隱私保護、模型參數保護、建模能力效果更好等優勢,AI通過聯邦學習大有可爲,微衆銀行也在積極推進“聯邦健康碼”的研發。

現實已如“科幻”,如何保證安全?

AI如何保護AI模型的安全?楊強教授從防止惡意或非惡意的攻擊、機器學習流程中的可攻擊點,以及對機器學習模型的攻擊等方面,對該定律發表了見解。他列舉了隱私攻擊中的典型案例深度泄露攻擊,介紹MIT韓鬆教授團隊,如何針對差分隱私的防禦, 對訓練數據進行像素級別的提取,設計了深度泄露攻擊。同時,楊強教授介紹了微衆銀行AI團隊針對深度泄露攻擊取得的防禦成果,從理論上證明了即使在差分隱私的情況下,可以在不影響模型效果的同時,完全防禦深度泄露攻擊。

AI與人類將進入共生時代

而對於定律三「AI要對人類解釋AI自己」,楊強教授講解了業界目前對於AI可解釋性的定義。在可解釋AI主要方法與關係上,他提出要學習更多結構化、可解釋的、因果關係模型的技術,改進深度學習以學到可解釋特徵的技術,從黑箱模型中推斷一個可解釋模型的技術。

對於衆人關心的可解釋AI標準建設問題,楊強教授也作出詳盡的回答,他表示AI的可解釋標準建設剛剛起步,由微衆銀行AI團隊發起的AI可解釋性“XAI IEEE標準”已完成立項申請。該標準是首部面向業界的機器學習可解釋標準,旨在提供一個明確的技術框架促進可解釋AI技術的普及與落地。

上一個十年,從概念到試驗再到成熟的商業化應用,人工智能發展迅速。下一個十年,毫無疑問將迎來真正的AI時代。在B端,AI將和互聯網一樣成爲全行業的底層技術支撐;在C端,AI將滲透到我們生活中的一切角落。但如楊強教授一直反覆強調的,AI的發展始終伴隨一些隱憂,在這個過程中,人類科學家的智慧將通過持續修復“BUG”的方式,與AI共生。