臺權會:人工智慧基本法是沒有階梯的空中樓閣

臺權會:人工智慧基本法是沒有階梯的空中樓閣。(曾薏蘋截圖)

國科會今年公佈「人工智慧基本法」草案。臺權會今指出,人工智慧基本法是沒有階梯的空中樓閣,現行的草案版本,不但缺乏研發及部署人工智慧可遵循的治理路徑,甚至在第五條要求其他法規的解釋與適用「以不妨礙新技術」爲原則,若通過將把本法拉擡至個資法與金融監管、醫療器材等法規之上,將剝除既有可用來確保人工智慧資料來源、應用安全性的法律工具,形同自廢武功。

臺權會建議,政府應盤點國內相關法規,釐清不同法律的關係,以及需要調整的範圍,如此纔能有效因應人工智慧帶來的挑戰。

臺權會指出,本次條文大部分聚焦於政府推動人工智慧發展應扮演的角色,但對於政府單位發展與應用人工智慧應遵循的程序要件卻不清不楚。臺灣政府機關從事人工智慧發展應用已累積不少問題。司法院發展生成式AI用於草擬刑事案件判決已出現爭議;法務部再犯風險評估AI透明度與使用情況有待進一步資訊揭露。

臺權會續指,健保署今年宣佈與Google合作研發糖尿病風險評估AI(從公開文件中,我們無法得知訓練模型之資料來源,但須注意規範健保資料利用的「衛福資料管理條例」尚未通過)。

臺權會認爲,歐盟人工智慧法依不同風險程序,採取禁止、從事基本權評估等不同程度的監管,而我國本次草案的實質內容,僅存在第十條要求數發部制定的「風險框架」,甚至沒有載明本法主管機關與跨機關之關係。面對問責單位、救濟措施、基本權評估、法律授權與規範的空缺,試問如何能期待本法能發揮保障隱私與安全、避免歧視與不平等的功能?

臺權會表示,原則必須落實,才能發揮功用。本法羅列七項原則,卻沒有相應的執行說明,在「隱私保護與資料治理」原則中,甚至偷渡開放及再利用非敏感資料(病歷、醫療、基因、性生活、健康檢查及犯罪前科以外的個資),有牴觸個資法之疑慮。強烈建議政府先行釐清我國其他法律與本草案的關係,修正架構以確保實際落實各項安全與保障人權之措施,讓研發與應用之公私部門得以遵循。