英韓舉辦峰會 16科技大廠達成AI安全協議

英國與南韓共同舉辦的AI安全峰會首日,16家科技大廠就AI安全,達成了指標性的國際協議。 (美聯社)

英國與南韓共同舉辦的人工智慧(AI)安全峰會首日,包括微軟、亞馬遜、OpenAI等16家科技大廠,21日就AI安全,達成了指標性的國際協議。此外,全球領袖可望在峰會上,敲定實際管理AI科技的新協定,顯示各國積極規範AI,也爭奪AI監管話語權。

16家科技業者的協議將使美國、中國大陸、韓國、阿拉伯聯合大公國等的公司,自願確保能安全開發最先進的AI模型。

AI模型研發商將各自公佈安全架構,闡明要如何評估前沿模型的風險,例如檢視技術遭有惡意人士濫用的危險性。這些架構也會包含科技公司的紅線,也就是被視爲無法容忍的風險,如自動化網路攻擊或生物武器威脅。在極端情況下,若無法保證能減少相關風險,將停止發展AI模型。

英相蘇納克表示:「這麼多世界各地的AI大廠,均同意對AI安全做出相同承諾,爲全球首見。」該協議僅限於前沿模型,即OpenAI聊天機器人ChatGPT大型語言模型背後的科技。

ChatGPT 2022年底問世後,監管機關和科技領袖都日益憂慮先進AI帶來的風險。六個月前英國舉辦了首場AI安全峰會,南韓首爾會議將以前次會議爲基礎,應對相關風險。

英相蘇納克和南韓總統尹錫悅21日與全球領袖進行線上會議,數位部長與專家等則將在22日進行實體會議。下一場實體峰會則由法國主辦,明年召開。

與此同時,歐盟成員國也在21日通過「AI法案」,該法將於下個月生效,有望替這個幾乎可應用於各行業和日常生活的技術,設定潛在的全球基準防線。

美國對AI監管較爲寬鬆,僅要求業者自願遵守,歐盟AI法案則更爲全面,依據風險採取對策,倘若某一系統爲高風險,業者將有更嚴格的規範,以保護公民權益。該法生效後,AI模型如ChatGPT須在法案上路後12個月遵行新法,企業則須在2026年前遵守。