硅谷又現AI吹哨人:不能指望人工智能公司自覺披露風險信息!

財聯社6月5日訊(編輯 馬蘭)人工智能行業發展迅速,但技術發展與秩序重新規劃的速度不匹配,持續引發人們對於該行業的安全擔憂,就連深度參與人工智能研發的工程師們也站出來公開警告。

13名來自OpenAI、谷歌DeepMind和甲骨文的前員工和現員工在一封公開信中表示,人工智能行業缺乏安全監督,且該行業對舉報人的保護並不充分。

信中指出,人工智能公司掌握着大量非公開信息,包括其系統的能力和侷限性、保護措施的充分性以及不同類型傷害的風險水平。然而,公司目前只有很弱的義務向政府分享部分信息,而對民間社會則沒有任何義務。

這些內部人士認爲,人們不能指望人工智能企業會自願分享這些信息。

內部發聲渠道被阻斷

公開信中寫道,由於廣泛的保密協議,內部員工被阻止表達自己的擔憂。他們希望先進的人工智能公司可以承諾遵守幾項原則,包括不對批評公司的員工進行報復等。

公開信強調,普通的保護舉報人措施對人工智能行業來說是不夠的,因爲一般措施是用於保護舉報非法活動的內部人士,但人工智能行業的舉報人更多是公開指出許多未受到監管的風險。

OpenAI則在一份聲明中爲自己的做法進行了辯護,稱公司有舉報熱線等渠道來報告公司內部問題,並且在採取保障措施之前不會發布新技術。谷歌則沒有立即迴應置評請求。

然而,這封信出現的時間點頗爲微妙。OpenAI上月剛剛有兩名高級員工離職——聯合創始人兼首席技術官Ilya Sutskever和關鍵安全研究員Jan Leike。Leike在辭職後還直言不諱地批評OpenAI已經放棄了安全文化,轉向商業利潤。

此外,OpenAI等公司也確實存在較爲激進的策略,來阻止員工自由發聲。據報道,OpenAI要求離職員工簽署極其嚴格的保密文件,否則就將失去所有既得股權。OpenAI首席執行官奧爾特曼在該報道後發佈道歉聲明,並聲稱將改革公司離職程序。