OpenAI死裡逃生?加州AI法案剛剛被斃,LeCun李飛飛吳恩達狂喜
新智元報道
編輯:編輯部 HYZ
【新智元導讀】喜大普奔!就在剛剛,加州州長宣佈:否決加州AI限制法案。LeCun李飛飛吳恩達激動地奔走相告,額手稱慶。而強烈支持法案的Bengio和Hinton則對此保持沉默。OpenAI、谷歌、Meta紛紛逃過大劫。
今天凌晨,美加州州長Gavin Newsom正式宣告:否決SB-1047法案!
對於全世界開發者們來說,SB-1047法案取消,意味着Meta、谷歌等大廠的開源模型,再次繼續可用。
這個決定可謂是衆望所歸。AI圈大佬們激動地奔走相告,在否決中出了大力的吳恩達、LeCun、李飛飛,則尤其開心。
加州州長否決意味着什麼?
SB-1047法案就真的終結了。
「臭名昭著」的SB-1047規定,SB 1047將會通過追究開發者的責任,來防止AI系統造成大規模人員傷亡,或引發損失超過5億美元的網絡安全事件。
消息一出,就引來學界和業界巨大的反對聲浪。
要知道,全球50家頂尖GenAI企業,有32家便紮根在加州,它們在定義AI未來起着關鍵作用。
加州辦公室新聞稿中介紹,過去一個月裡,Gavin簽署了18個GenAI法案,卻唯獨否決了SB-1047。
在過去30天裡,州長簽署了一系列法案,以打擊Deepfake內容,以及保護表演者的數字肖像權等等
這項法案初衷是好的,但實際上存在一些嚴重的問題。
他表示,我認爲這不是保護公衆免受AI帶來真正威脅的最佳方法。
在SB-1047被否決的過程中,AI教母李飛飛起到的作用不容忽視。
斯坦福教授李飛飛開心地表示,自己能和StanfordHAI一起,爲加州負責任的AI治理鋪平道路,深感榮幸。
AI泰斗吳恩達也感謝了李飛飛對於SB-1047的公開反對,稱她的努力能推動更理性的AI政策,從而保護研究和創新。
就在前幾天,SB-1047法案即將塵埃落定之際,吳恩達和LeCun還在焦急地奔走呼籲、發起投票,擔心一旦通過,開源AI和整個AI生態系統都會產生寒蟬效應。
如今,全加州的AI公司們終於鬆了一口氣。
州長否決信:不予簽署
「本人謹此退回參議院法案1047,不予簽署。」
全文地址:https://www.gov.ca.gov/wp-content/uploads/2024/09/SB-1047-Veto-Message.pdf
在信中,州長承認,SB-1047對於AI部署可能帶來的威脅過於放大了。
而且,法案僅關注最昂貴的大規模模型,其實是給了公衆一種「錯誤的安全感」。
他指出,即使是較小的專有模型,可能也會一樣危險。
總之,法案對AI實施的監管,是以「遏制利於公衆利益的創新」爲代價的。
州長表示,法案對最基本的功能,也適用最嚴格的標準,這並不是保護公衆買免受AI技術威脅的最佳辦法。
而最好的解決辦法是,是一個不以AI系統和能力的實證發展軌跡分析爲依據的方案。
AI大佬深惡痛絕
這樣的結局,對於除了Bengio、Hinton的絕大多數人,都可謂非常圓滿。
提到SB-1047,一衆大佬們是深惡痛絕。
事情的來龍去脈是這樣的。
去年,加州州長簽署了一項行政命令,強調加州面對GenAI態度要更加審慎,讓AI更加道德、透明、可信。
而今年2月,加州直接擬定了法案,名爲《SB-1047前沿AI大模型安全創新法案》,對於大模型安全、透明的使用給出了更具體的條例。
法案地址:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047
然而,其中有多項不合理內容,簡直是指名道姓地給某些公司卡脖子。
成本超1億的模型,得防止造成「重大傷害」
比如有一條規定,開發、訓練成本超1億美元,且浮點運算超過10^26次的大模型,一旦開源後被有人用來做非法的事,那麼模型開發商也會受到嚴重處罰。
要知道,Meta的Llama 3模型,谷歌的Gemma模型等,都符合這個條件。
這個規定顯然極有爭議。
比如,如果有人入侵自動駕駛系統並導致事故,開發該系統的公司也要被追責嗎?
按照法案的說法,開發者需要評估其模型的衍生產品、防止他們可能造成的任何傷害,包括客戶微調模型、以其他方式修改模型(越獄)或與其他軟件組合。
然而一旦開源軟件發佈,人們可以直接將模型下載到個人設備上,因此開發者根本無從得知其他開發者或客戶的具體操作。
另外,法案中也有多處定義模糊。
比如AI模型的「關鍵傷害」,被描述爲大量傷亡、超過5億美元的損失或其他「同等嚴重」的傷害,但開發者在什麼條件下要被追責?要承擔何種責任?
法案對此都語焉不詳。
並且,法案適用於花費超過1億美元訓練的AI模型,或花費超過1000萬美元微調現有模型的開發者,也就讓許多小型科技公司落入被打擊範圍。
SB-1047還有一些不合理規定,比如如果公司開放模型給其他國家使用,還得提交客戶的所有資料,包括客戶的身份證、信用卡號、賬號等。
開發者還必須創建能夠解決AI模型風險的測試程序,並且必須每年聘請第三方審計員來評估其AI安全實踐。
對於那些基於模型打造的AI產品,則需要制定相應的安全協議來防止濫用,包括一個關閉整個AI模型的「緊急停止」按鈕。
法案被詬病:對真正的風險視而不見
更多批評者認爲,這個法案實在是過於杞人憂天了。
它不僅會阻礙AI的創新,而且對當今AI的安全性也沒有幫助。
更諷刺的是,法案用所謂的「緊急開關」預防世界末日,但對Deepfake、虛假信息等已出現的安全風險卻視而不見。
雖然後來的修正案在措辭上更加寬鬆,減少了加州政府追究AI實驗室責任的權力。
但即便如此,SB-1047也會給OpenAI、Meta、谷歌等大廠帶來不小的影響。
而對一些初創企業來說,這種打擊甚至會是毀滅性的。
如今塵埃落地,大公司和小初創們都可以長出一口氣了。
圖靈巨頭決裂
SB-1047,甚至讓圖靈三巨頭爲此「決裂」。
LeCun、李飛飛、吳恩達爲代表的大佬們,多次公開反對不滿。
甚至,LeCun還照搬了之前要求暫停AI研究時的原梗——請暫停AI立法六個月!
而圖靈三巨頭中的另外兩位——Yoshua Bengio和Geoffrey Hinton,卻出人意料地強烈支持這項法案通過。
甚至還覺得,現在的條款定得有些太過寬鬆了。
但Bengio和Hinton顯然不是主流。
總結來說,各家科技巨頭和一衆大佬對此的立場如下。
參考資料:
https://x.com/AndrewYNg/status/1840525690770542797
https://x.com/ylecun/status/1840521403503649049
https://techcrunch.com/2024/09/29/here-is-whats-illegal-under-californias-18-and-counting-new-ai-laws/
https://www.gov.ca.gov/2024/09/29/governor-newsom-announces-new-initiatives-to-advance-safe-and-responsible-ai-protect-californians/
https://www.latimes.com/entertainment-arts/business/story/2024-09-29/gov-gavin-newsom-vetoes-ai-safety-bill-scott-wiener-sb1047