張霄:算法只是工具,不能把責任都推卸給算法

資料圖。圖片來源:Unsplash

新京報訊(記者 鄭偉彬)智能技術正在極大地提高社會生產力水平,並催生人類從認知到行爲上的許多變革。以算法爲核心的智能技術在推動人類社會的進步上發揮了重要作用;不過也同時暴露出一些問題、矛盾和倫理困境。

爲此,6月18日,清華大學新聞與傳播學院智媒研究中心、新京智庫聯合舉辦了“算法善用 智能人文:智能信息的多學科融匯”的線上高端論壇,與會專家就算法等技術對價值創造、裨益人類、社會發展的積極意義展開討論。

會上,中國人民大學哲學院副院長、中國人民大學倫理學與道德建設研究中心副主任張霄表示,我們對算法的使用應該是有限度的,因爲由算法搭建的人工智能其實是有限智能,不是人類智能。同時,算法只是工具,不能把責任全部推卸給算法。

智能的三種模式

張霄首先介紹了目前三種人工智能模式。一是深度學習模式。這是目前流行的人工智能工作模式,也是比較成熟的一種模式。它的兩端是輸入層和輸出層,中間則是隱藏層。信息被輸入層獲取後,通過幾道隱藏層的甄別,最終在輸出層得出結論。由於隱藏層在數據加工過程中不出現值,所以,其工作流程無從得知。正因爲如此,這個中間處理過程也被視爲“黑箱”。

張霄表示,這樣的工作模式並非人類的思維(智能)方式。在通過感性經驗形成知性進而達於概念的過程中,人的自我意識不但自覺這個過程,同時也能意識到這個自覺過程就是自我意識的活動本身。但在深度學習模型中,所謂的智能其實根本沒有自覺意識。

二是類腦模式。張霄介紹,現在有很多科學家試圖將人類大腦上百億個神經元再造出來,通過複製大腦生物結構還原人類的智能活動。張霄認爲,這種模式不僅耗資巨大,且自身也存在問題。他認爲,即使我們能重建人類的生物腦結構,也不意味着我們就能由此找到人類智能的工作機理。人類的精神活動方式不可能簡單還原成物理、化學形式。人類的思維活動自有其奧秘所在。

三是黑格爾模式。張霄認爲,黑格爾對人類精神現象的深入研究是對人類思維活動的內在探索。張霄引用黑格爾在《邏輯學》中的一段話表明,人類的意識有其特殊的活動方式。思維會在自己的活動過程中把自己當做對象、中介和環節。在經歷不同的對象、中介和環節後,思維會得到鍛鍊和升級,進而形成更高階的存在形式。這就是黑格爾所說的哲學的圓圈。黑格爾的邏輯學就是他對人類思維活動的理解。

張霄指出,黑格爾對人類精神現象的理解,不同於物理學家、生物學家和計算機科學家。關鍵就在於,他是從思維活動本身去探究思維的工作原理。而這裡所說的思維,就是我們今天講的智能。黑格爾對人類智能的理解未必都對。但他堅持從人類精神活動本身出發探索思維的方式或是可以借鑑的。

談論算法倫理不能脫離應用場景

因此,在張霄看來,由算法搭建的所謂人工智能,實際上跟人的智能關係不大。因爲它並沒有把握人類思維的本質。

張霄認爲,算法在原初意義上是一個數學結構,是一個有限的、抽象的、有效的、複合的控制結構。它能夠在給定的條件下實現給定的目的。

資料圖。圖片來源:Unsplash

同時,算法又必然和計算機科學聯繫在一起。因爲抽象的數學結構只有接受藉助信息化手段才能真正實現。

張霄強調,當我們在談論算法的時候,特別是在談論算法倫理時,不能脫離算法應用去談論算法倫理問題。而這也就意味着算法涉及到的倫理問題,必然是在算法運行的三個環節中出現:(1)數據轉換成結論的環節;(2)結論轉化成行動的環節;(3)行動過程中的問責環節。

在這三個環節中,張霄表示,算法倫理問題將涉及到已有文獻提及的6個道德關注點。一是不確定性證據。也就是在數據計算過程中的統計學方法只能提供相關關係,不能表達因果關係。

二是不可解讀的證據。在從數據到結論的過程中,需要有對數據的解讀工具。對數據使用知識的缺乏會造成我們實際上無法解讀數據。無法解讀意味着不真實,而不真實的數據自然意味着不正確的結論。

三是誤導性證據。人類在設計算法時,要避免人類本身具有的某種價值觀念可能會產生某些誤導性的算法。

四是不公平的結果。算法在場景中使用就會面臨操作者的在使用算法過程中的倫理問題。如果說誤導性證據是算法設計者價值觀可能引起的偏見或歧視,那麼這裡指的就是使用算法的操作者的價值觀可能引起的偏見或歧視問題。

五是變革影響。張霄認爲,算法會概念化我們的世界。在這一過程中會使我們主體決策的自主權受到影響,要尊重大衆的決策權。

六是可追溯問題。可追溯性就是當算法行爲導致某種結果後需要在上述五個方面進行原因追溯。

算法的大規模使用要堅持封閉性原則

基於以上分析,張霄總結認爲,首先,由算法建構的有限智能體,不應該承擔任何道德責任,因爲它並不是一個道德主體(moral agency)。Agency是一種主體性,能夠自主、自律、自控,具有某種自我意識,這是道德意志根本特徵。所以,由算法所構成人工智能體不需要對某些算法構成的行爲負責。因爲這在倫理上說不通。

其次,算法的大規模使用,一定要堅持封閉性原則,在封閉化場景中使用。封閉性原則也就是在特定情形下完成特定的事,所有的工作任務、標準都是明確的,能夠達成目的的路徑、條件、手段都是明確的。而在封閉化場景中,道德風險是最小的。

最後,要對算法設計價值觀念進行評估與審查。誤導性證據和不公平結果,一個和證據有關,一個和操作有關,都會影響到算法在設計和應用過程中人爲價值觀念先入爲主的問題。因此,張霄表示,有限使用算法,也意味着要在算法的設計和操作過程當中進行全面的價值觀評估和倫理審查。

記者:鄭偉彬 編輯:張笑緣 校對:劉軍