面向可解釋AI的黑盒和白盒模型

使用模型屬性、本地邏輯表示和全局邏輯表示從黑盒模型生成解釋

可解釋人工智能 (XAI) 致力於開發對人類(包括用戶、開發人員、政策制定者和審計人員)來說本質上更容易理解的人工智能模型。 神經符號計算 (NSC) 處理將子符號學習算法與符號推理方法相結合。 因此,我們可以斷言神經符號計算是可解釋人工智能下的一個子領域。 NSC 也是最適用的方法之一,因爲它依賴於結合現有的方法和模型。

如果可解釋性是指用人類語言有意義地描述事物的能力。那麼它可以認爲,它是將原始信息(數據)映射到人類有意義的符號表示(例如,英語文本)的可能性。

通過從子符號中提取符號,我們可以使這些子符號具有可解釋性。XAI和NSC都在努力使次符號系統更易於解釋。NSC更多的是關於子符號到符號的映射,通過邏輯設計的可解釋性:對子符號學習表示的符號推理。XAI沒有那麼具體,更多的是關於所有細微差別的可解釋性,即使可解釋性被包裹在無法解釋的模型中。如果從子符號中提取符號意味着可解釋性,那麼XAI包含了NSC。

Neuro-Symbolic Concept Learner

Mao等人提出了一個新的NSC模型,Neuro-Symbolic Concept Learner,它遵循以下步驟:

白盒和黑盒模型

AI模型可以是(i)白盒或(ii)黑盒。

白盒模型可以通過設計來解釋。因此,它不需要額外的功能來解釋。

黑盒模型本身是無法解釋的。因此,爲了使黑盒模型具有可解釋性,我們必須採用幾種技術從模型的內部邏輯或輸出中提取解釋。

黑盒模型可以使用以下內容解釋

模型屬性:展示模型或其預測的特定屬性,如(a)屬性變化的敏感性,或(b)負責給定決策的模型組件(如神經元或節點)的識別。

局部邏輯:單個決策或預測背後的內部邏輯的表示。

全局邏輯:整個內部邏輯的表示。

因此,下圖顯示了AI模型的可解釋性的子類別:

基於規則的可解釋性與基於案例的可解釋性

除了可解釋模型的邏輯區分之外,我們還確定了兩種常見的解釋類型,所有上述模型都可以採用它們來提供解釋:

基於規則的解釋:基於規則的可解釋性依賴於生成“一組形式化的邏輯規則,這些規則構成了給定模型的內部邏輯。”

基於案例的解釋:基於規則的可解釋性依賴於提供有價值的輸入-輸出對(包括積極的和消極的),以提供對模型內部邏輯的直觀理解。基於案例的解釋依賴於人類從這些配對中推斷邏輯的能力。

基於規則和基於案例的學習算法比較

假設我們的模型需要學習如何做蘋果派的食譜。我們有藍莓派、奶酪蛋糕、牧羊人派和普通蛋糕的食譜。基於規則的學習方法試圖想出一套通用的規則來製作所有類型的甜點(即急切方法),而基於案例的學習方法則根據需要概括特定任務所需的信息。因此,它會在可用數據中尋找與蘋果派最相似的甜點。然後,它會嘗試在類似的食譜上進行小的變化來定製。

XAI: 設計白盒模型

包括基於規則和基於案例的學習系統,我們有四種主要的白盒設計:

手工製作的專家系統;

基於規則的學習系統:從歸納邏輯規劃、決策樹等數據中學習邏輯規則的算法;

案例學習系統:基於案例推理的算法。他們利用例子、案例、先例和/或反例子來解釋系統輸出;和

嵌入式符號和提取系統:更多的生物啓發算法,如神經符號計算。

最後總結

在本文中,我們:

作者:Orhan G. Yalçın