奧特曼被指對OpenAI安全工作不誠實
鞭牛士報道,8月3日消息,據外電報道,在舉報人向美國證券交易委員會 (SEC) 指控人工智能公司OpenAI的保密協議非法阻止員工向立法者披露重大安全問題後,OpenAI 面臨越來越大的壓力,需要證明其沒有隱瞞人工智能風險。
在昨天致 OpenAI 的一封信中,參議員查克·格拉斯利 (Chuck Grassley)(愛荷華州共和黨議員)要求提供證據,證明 OpenAI 不再要求籤署可能阻礙其員工向政府監管機構進行受保護披露的協議。
具體來說,格拉斯利要求 OpenAI 提供當前的就業、遣散、非貶損和保密協議,以向國會保證合同不會阻礙披露。
格拉斯利說,這至關重要,這樣我們纔有可能依靠揭露新興威脅的舉報人來幫助制定有效的人工智能政策,以防範技術進步帶來的現有人工智能風險。
格拉斯利的信中說,他顯然已經兩次要求 OpenAI 提供這些記錄,但均未得到迴應。
格拉斯利的發言人克萊爾·斯萊特里 (Clare Slattery)告訴《華盛頓郵報》,到目前爲止,OpenAI 尚未迴應最近一次發送文件的請求。
「僅僅聲稱自己做了更新是不夠的。」格拉斯利在提供給 Ars 的一份聲明中表示。「事實勝於雄辯。奧爾特曼需要提供記錄並回應我的監督請求,這樣國會才能準確評估 OpenAI 是否充分保護了其員工和用戶。」
除了要求 OpenAI 最近更新員工協議外,格拉斯利還敦促 OpenAI 更加透明地公開自 2023 年以來員工尋求進行聯邦披露的請求總數。
參議員想知道員工想要向官員披露哪些信息,以及 OpenAI 是否真的批准了他們的請求。
同樣,格拉斯利要求 OpenAI 確認自 2023 年以來 SEC 對 OpenAI 展開了多少調查。
綜合起來,這些文件將會揭示 OpenAI 員工是否仍然被禁止向聯邦披露信息、OpenAI 否認哪些類型的披露,以及 SEC 對 OpenAI 隱藏安全風險的監視程度如何。
格拉斯利在信中寫道:OpenAI 必須確保其員工能夠提供受保護的披露而不受非法限制。
他已要求 OpenAI 在 8 月 15 日之前做出迴應,以便國會可以對 OpenAI 的安全協議和保密協議進行客觀和獨立的監督。
OpenAI 尚未立即迴應 Ars 的評論請求。
在 X 上,Altman寫道,OpenAI 已採取措施提高透明度,包括與美國人工智能安全研究所達成協議,我們將提供對我們下一個基礎模型的早期訪問權限,以便我們共同推動人工智能評估科學的發展。
他還證實,OpenAI 希望現任和前任員工能夠提出顧慮,並感到安心。
奧爾特曼寫道:這對任何公司來說都至關重要,但對我們尤其如此,這是我們安全計劃的重要組成部分。5 月份,我們取消了對現任和前任員工的非貶損條款,以及賦予 OpenAI 取消既得股權權利(儘管從未使用過)的條款。我們一直在努力糾正這一點。
7 月,舉報人向美國證券交易委員會表示,OpenAI 不僅應該被要求提供當前員工合同,還應該提供所有包含保密協議的合同,以確保 OpenAI 沒有掩蓋歷史或當前掩蓋人工智能安全風險的做法。他們希望所有現任和前任員工都能收到任何包含非法保密協議的合同的通知,並要求 OpenAI 因每一份非法合同而被罰款。
Sam Altman 被指對人工智能安全問題不以爲然
不過,要求 OpenAI 提高透明度的呼聲不只限於立法者。在 Grassley 發出公開信的前一天,OpenAI 首席執行官 Sam Altman在 X 上發佈了一份聲明,聲稱 OpenAI 自去年 7 月以來已爲安全工作投入了充足的資源,但 X 事實覈查人員在評論中稱,這份聲明具有誤導性,引發了公衆的強烈抗議。
奧爾特曼寫道:正如我們去年 7 月所說的那樣,我們致力於將至少 20% 的計算資源分配給整個公司的安全工作,這引發了社區的關注,很多有偏見的 X 讀者都認爲這提供了更多背景信息。
社區說明指出,Altman 指的是 7 月份的一篇博客,其中明確確認 OpenAI 正在將 20% 的計算資源分配給其超級對齊團隊。由於該團隊現已解散,負責超級對齊的首席科學家也離開了公司,X 評論員稱 Altman 的說法誤導了公衆,誤導公衆瞭解 OpenAI 現在定義模糊的安全工作實際上分配了哪些計算資源。
一些 X 評論者要求提供有關 OpenAI 目前安全工作內容的更多細節。在 7 月 31 日回覆其他五位參議員關於 AI 安全問題的一封信中,OpenAI 對其安全工作進行了更詳細的解釋。該公司還澄清了 Altman 的說法,即 X 已將其標記爲需要“更多背景信息”,並寫道,博客中提到的計算資源絕不應該只指超級對齊團隊。
OpenAI 在致參議員的信中表示:爲了進一步推進我們的安全研究議程,去年 7 月我們承諾在多年內將至少 20% 的計算資源分配給人工智能安全。這一承諾始終適用於整個公司的安全工作,而不僅僅是某個特定團隊。
這讓一些人感到困惑,因爲 OpenAI 的博客明確表示,OpenAI 將在未來四年內,將我們迄今爲止獲得的計算資源的 20% 用於解決超級智能協調問題。當時,OpenAI 表示,其主要的基礎研究賭注是其前超級協調團隊,「該團隊需要計算資源,因爲做好這件事對於實現我們的使命至關重要。」
One X 用戶 @AISafetyMemes 向 OpenAI 詢問,如果超級對齊是迄今爲止最重要的問題,以防範 AI 風險,那麼爲什麼它將計算資源從超級對齊轉移出去,並且轉移到整個公司。
OpenAI 尚未對該 meme 賬戶做出迴應,但此前曾表示超級對齊團隊對人工智能安全至關重要,因爲社會需要科學和技術突破來引導和控制比我們更聰明的人工智能系統。
OpenAI 詳細介紹了安全舉措
在 OpenAI 致參議員的信中,首席戰略官 Jason Kwon 告訴議員們,OpenAI 通過與外部專家合作評估和紅隊我們的模型來防範風險。 其中包括諮詢 100 多名外部專家,他們幫助評估與我們的最新模型 GPT-4o相關的風險。
Kwon 寫道:紅隊測試的發現和安全緩解措施在我們模型附帶的系統卡中公開提供,OpenAI 已經發表了關於“衡量與人工智能系統相關的化學、生物、放射和核 (CBRN) 風險”、估計不同職業和行業可能受到語言模型影響的程度、評估語言模型對影響操作的影響以及解釋人工智能系統決策的可解釋性的研究。
爲了進一步確保 AI 的安全,Kwon 表示,OpenAI 會進行迭代部署,先向有限羣體發佈 Sora 視頻模型或語音引擎等新功能,然後再向公衆廣泛發佈。
Kwon 寫道:這一策略使我們能夠從 OpenAI 以外的人那裡獲得反饋,根據需要更新我們的安全護欄,並在完全開放我們的模型之前讓公衆瞭解即將推出的 AI 功能。
對於開發新功能或新模型的員工,如果員工仍然擔心因提出安全問題而遭到報復,Kwon 表示,OpenAI 於 3 月開通了誠信熱線。通過該渠道,員工可以在不願意通過其他現有渠道提出問題時匿名報告問題。
儘管 OpenAI 表示員工可以自由地談論任何擔憂,但很明顯,如果 OpenAI 認爲某些信息存在安全風險,則仍然不能共享。
Kwon 寫道:OpenAI 繼續區分提出擔憂和泄露公司商業機密。根據現任和前任員工的保密協議,後者(受保護的披露權利)仍然被禁止。我們認爲,鑑於我們的技術對美國國家安全的影響,這一禁令尤爲重要。
考慮到這一例外情況允許 OpenAI 否認一些聯邦披露信息,格拉斯利很可能希望查明 OpenAI 是否可能以保護商業機密爲由不正當地否認披露信息。
格拉斯利的信中明確表示,參議員擔心公司自我監督安全存在風險。