臺權會憂「人工智慧基本法」有抵觸個資法疑慮 學者這樣看

國科會今年7月公佈「人工智慧基本法」草案,臺權會認爲,現行的草案版本缺乏研發及部署人工智慧可遵循的治理路徑,更有牴觸個資法的疑慮。情境示意圖。路透

國科會今年7月公佈「人工智慧基本法」草案,希望我國在發展人工智慧的同時,也能兼顧人權與風險的保障。不過,臺灣人權促進會指出,現行的草案版本,缺乏研發及部署人工智慧可遵循的治理路徑,更有牴觸個資法的疑慮。

臺權會針對草案第5條提出質疑,認爲要求隱私保護與資料治理、資安與安全,及透明與可解釋等其他法規的解釋與適用,要以「以不妨礙新技術」爲原則,就可能造成「人工智慧基本法」拉擡至個資法與金融監管、醫療器材等法規之上,將剝除既有可用來確保人工智慧資料來源、應用安全性的法律工具,形同自廢武功。

臺權會指出,人工智慧發展累積至今,已發生不少問題,像是司法院發展生成式AI用於草擬刑事案件判決出現爭議;法務部再犯風險評估AI透明度與使用情況有待進一步資訊揭露等。

對此,國科會回覆,按法律適用之原則,除非有某法規排除其他法之明確規定,否則無法導出某法規得逕予排除某法規之適用。而AI基本法草案並未排除我國其他法規之適用,因此,無排除個資法、金融監管、醫療器材等法規之虞。

陽明交大科法院特聘教授林志潔說明,科技法的管制要回歸到國家是科技的發展還是使用端來思考。她舉歐洲爲例,因爲歐洲非科技研發的區域,只是使用者,所以對科技發展的管制相對嚴格;但美國對於科技法的約束就相對寬鬆,因爲過度的管制會影響產業發展。

林志潔提到,臺灣目前的科技發展的定位應與美國較相似,都是以研發爲主,對於「基本法」的訂定相對有彈性也在情理之中。她說,基本法的訂定偏向概略、通則,是提供產業發展的方向與彈性,但對於個別產業的影響,則可再由個別產業的主管機關訂定規範,就不會有牴觸他法的疑慮。

林志潔指出,也可與金融科技發展初期的「監理沙盒」模式借鏡,設計一個風險可控管的實驗場域,提供給各種新興科技的新創業者測試其產品、服務以及商業模式的環境,再修改或制定新興科技監管法規的方向跟參考。她強調,「讓子彈飛一陣子」,再去通盤考慮法律的制定,產業的發展、權利的保障才能雙贏。