KPMG 解密歐盟《人工智慧法案》 關注資料保護與 AI 倫理

KPMG安侯建業昨(17)日發佈「解密歐盟人工智慧法案報告」。隨着AI普及,各國政府迫切需要制定防範措施和法律。如過往GDPR法案對臺灣產業影響,在歐盟《人工智慧法案》的頒佈後,臺灣企業應關注資料保護與 AI 倫理,並作爲跨國營運與產品開發的方針。

根據KPMG澳洲和昆士蘭大學進行的一項全球調查《Trust in artificial intelligence》顯示,有五分之三的人對信任AI系統保持謹慎態度,並且有71% 受訪者希望能對AI能夠進行監管。

《人工智慧法案》預計將於2024年立法,並有望從2025年開始實施,作爲此領域首見的法律,預計會成爲全球AI監管實際的新標準。該法案定義了一個框架來理解AI相關的風險,並根據它們獲得的資料以及利用該資料採取的決策或行動將它們分爲四大類別:不可接受風險、高風險、有限風險、最低風險。

此法案目的是爲管理或降低風險,如禁止AI系統中存在不可接受的風險;避免侵犯基本權利;防止使用影響潛意識或是不道德的技術,因爲其可能會影響或扭曲個人行爲,從而對該人或其他人造成傷害;儘量減少可能導致不公平或不準確結果的偏見;限制因年齡、殘疾、政治立場或其他因素而對弱勢羣體或羣體進行剝削。

規管範圍從供應商、開發經銷商甚至組織高階職位、合規相關單位與部署人員皆有其應負義務。企業不合規的後果則取決於違規的程度,範圍可能會從限制市場到鉅額罰款,罰款則可能從3,500萬歐元或全球營業額的7%,到750萬歐元或營業額的1.5%不等。

KPMG安侯建業數位長賴偉晏建議,對臺灣企業而言,從數據治理先開始着手,盤點清楚數據是否有被妥善的儲存、分析、利用才能真正解構AI模型的黑盒子,致力於提升模型的可信任度、可解釋度與確保倫理風險不會發生。

KPMG安侯企管顧問執行副總經理林大馗表示,這將讓臺灣與歐盟的標準直接對接,以確保AI技術的開發和應用符合歐盟要求。同時,企業應透過加強教育和培訓,提升專業人才在資料保護和AI合規性方面的知識和技能,也是目前產業迫切需要的。

延伸閱讀