谷歌大模型被盯上!歐盟監管機構就數據隱私對PaLM2模型展開調查

財聯社9月12日訊(編輯 周子意)歐盟的監管機構週四(9月12日)表示,他們正在調查谷歌的一款人工智能模型,原因是擔心該模型是否遵守了歐盟嚴格的數據隱私規定。

愛爾蘭數據保護委員會(Ireland's Data Protection Commission)表示,已對谷歌的PaLM2大模型展開調查。這是歐盟在人工智能監管方面更廣泛努力的一部分,歐盟27個國家的其他監管機構都在審查人工智能系統如何處理個人數據。

由於谷歌的歐洲總部設在都柏林,因此愛爾蘭數據保護委員會是該公司在歐盟隱私規則方面的主要監管機構,依據歐盟《通用數據保護條例(GDPR)》對谷歌的數據隱私進行監管。

該委員會表示,其調查正在審查谷歌是否評估過PaLM2的數據處理是否可能對歐盟的“個人權利和自由構成高風險”。

數據保護

隨着人工智能技術的發展,個人數據的保護問題日益受到各國監管機構的重視,尤其是在歐盟這樣對數據隱私要求極高的地區。

像PaLM2此類的大型語言模型是巨大的數據寶庫,可以作爲人工智能系統的構建模塊。谷歌目前使用PaLM2爲包括電子郵件彙總在內的一系列生成式人工智能服務提供動力,自去年6月開始谷歌的全家桶產品均引入了PaLM2模型。

不過這種大型語言模型由於其數據的多樣性,更容易被監管機構盯上。

例如在本月初,愛爾蘭監管機構就曾對埃隆·馬斯克的社交媒體平臺X展開了行動。X公司最終同意停止使用歐洲用戶的個人信息來訓練其人工智能聊天機器人Grok,並承諾刪除在2024年5月7日至8月1日期間從其社交媒體平臺上收集的歐洲用戶的公開帖子中的個人數據。

愛爾蘭監管機構本月早些時候表示,埃隆·馬斯克的社交媒體平臺X已同意永久停止處理其人工智能聊天機器人Grok的用戶數據。

監管機構在一個月前將其告上法庭,向高等法院提交緊急申請,要求X“暫停、限制或禁止”處理其用戶公開帖子中包含的個人數據,之後該平臺才這麼做。

此外, Meta平臺在愛爾蘭監管機構施加壓力後,也暫停了使用歐洲用戶發佈的內容來訓練其大型語言模型最新版本的計劃;意大利數據隱私監管機構去年因數據隱私泄露而暫時封禁了ChatGPT,並要求開發商OpenAI滿足一系列要求以解決擔憂。