OpenAI內鬥第二彈!Ilya親信、超級對齊團隊2人慘遭開除,被批泄密
新智元報道
編輯:編輯部
【新智元導讀】OpenAI內鬥「第二彈」來了?外媒驚曝,OpenAI超級對齊團隊關鍵人物忽然被解僱了,理由是有泄密行爲。而且,此人還是Ilya的重要盟友和親信。而身處風暴中心的Ilya,依然未曾露面……
驚天大瓜!
據外媒報道,OpenAI超級對齊團隊的2名研究員,因泄露「機密」被正式開除!
而這也是今年3月Sam Altman重掌董事會席位後,OpenAI首次對外公開的人事變動。
被解僱的研究員之一Leopold Aschenbrenner,曾在新成立的超級對齊團隊工作。
同時,他也是OpenAI首席科學家Ilya Sutskever的支持者,OpenAI內鬥風波後,Ilya至今尚未在公開場合露面。
另一位被解僱的員工Pavel Izmailov,曾負責推理方面的研究,在安全團隊亦有貢獻。
Leopold Aschenbrenner(左), Pavel Izmailov(右)
值得一提的是,被解僱的這倆人,都是去年OpenAI超級對齊團隊新論文的作者。
不過,目前尚不清楚,兩位被解僱員工具體泄露了哪些信息。
團隊關鍵人物開除爲哪般
OpenAI的發展情況,仍然是穩中向好,勢如破竹,最近一次員工股票出售中,它的估值甚至一度高達860億美元。
而超級對齊團隊(Superalignment),是OpenAI內部一個頗具話題性的部門。
AI發展到最後,如果成爲超級智能,好處是或許能幫我們解決核聚變問題,甚至開拓其他星球,但反過來,這麼厲害的它,開始危害人類了怎麼辦?
爲此,在去年夏天,Ilya Sutskever成立了這個團隊,來研發控制和指導超級智能的技術。
Aschenbrenner,恰恰就是超級智能對齊團隊的關鍵人物之一。
一個爭議就是:這個團隊真的有存在的必要嗎?
OpenAI內部,員工對此意見不一。
此前的內鬥風波,跟這個理念的爭議也脫不了干係。
作爲OpenAI聯合創始人、重大技術突破負責人,Ilya曾與其他董事會成員一起,決定解僱Sam Altman,原因是他缺乏坦誠。
而Altman宮鬥歸來、重返CEO之職後,Ilya離開了董事會,從此似乎銷聲匿跡,引來衆多網友的猜疑。
又是「有效利他主義」
耐人尋味的是,事件中的衆多人物,都有「有效利他主義」(Effective Altruism),有着千絲萬縷的關聯。
對齊團隊關鍵人物Aschenbrenner,便是有效利他主義運動的一員。
該運動強調,我們應該優先解決AI潛在的風險,而非追求短期的利潤或生產力增長。
說到這裡,就不能不提大名鼎鼎的幣圈大佬、如今淪爲階下囚的FTX創始人Sam Bankman-Fried了,他也是有效利他主義的忠實擁躉之一。
19歲時畢業於哥大的Aschenbrenner,曾在SBF創建的慈善基金Future Fund工作,該基金致力於資助能夠「改善人類長遠前景」的項目。
一年前,Aschenbrenner加入了OpenAI。
而把Altman踢出局的其他董事會成員,也都被發現和有效利他主義有干係。
比如,Tasha McCauley是Effective Ventures的董事會成員,後者即是有效利他中心的母組織。
而Helen Toner曾在專注於有效利他的Open Philanthropy項目工作。
去年11月Altman重任CEO時,二人也都來開了董事會。
這樣看來,此次Aschenbrenner被開除究竟是因爲泄密,還是因爲其他原因,就值得探究了。
總之,Sam Altman看來是跟有效利他主義主義的這幫人槓上了——畢竟他們的理念,實在是Altman理想中AGI(甚至ASI)的最大絆腳石。
Leopold Aschenbrenner
Leopold Aschenbrenner還在大三時,便入選了Phi Beta Kappa學會,並被授予John Jay學者稱號。
19歲時,更是以最優等成績(Summa cum laude)從哥倫比亞大學順利畢業。
期間,他不僅獲得了對學術成就授以最高認可的Albert Asher Green獎,並且憑藉着「Aversion to Change and the End of (Exponential) Growth」一文榮獲了經濟學最佳畢業論文Romine獎。
此外,他還曾擔任政治學的Robert Y. Shapiro教授和經濟學的Joseph E. Stiglitz教授的研究助理。
Leopold Aschenbrenner來自德國,現居風景優美的加利福尼亞舊金山,志向是爲後代保障自由的福祉。
他的興趣相當廣泛,從第一修正案法律到德國曆史,再到拓撲學,以及人工智能。目前的研究專注於實現從弱到強的AI泛化。
Pavel Izmailov
Pavel Izmailov在莫斯科國立大學獲得數學與計算機科學學士學位,在康奈爾大學獲得運籌學碩士學位,並在紐約大學獲得計算機科學博士學位。
他的研究興趣廣泛,包括機器學習核心領域內的多個主題,不過主要還是致力於深入理解深度神經網絡是如何運作的。
提升AI的推理和問題解決能力
深度學習模型的可解釋性,涵蓋大語言模型和計算機視覺模型
利用AI進行科學發現
大規模模型的分佈外泛化和魯棒性
技術AI對齊
概率深度學習、不確定性估計和貝葉斯方法
此外,他所在團隊關於貝葉斯模型選擇方面的工作,更是在2022年的ICML上獲得了傑出論文獎。
加入OpenAI之前,他曾在亞馬遜、谷歌等大廠實習
從2025年秋季開始,Izmailov將加入紐約大學,同時擔任Tandon CSE系助理教授和Courant CS系客座教授,並加入NYU CILVR小組。
用GPT-2監督GPT-4
在這項研究中,OpenAI團隊提出了一個創新性模型對齊方式——用小模型監督大模型。
Leopold Aschenbrenner對此解釋道,直覺告訴我們,超人類人工智能系統應該能「感知」自己是否在安全地操作。
但是,人類能否僅通過「弱監督」就從強大的模型中提取出這些概念呢?
在未來,AI系統可以處理極其複雜的任務,比如生成一百萬行代碼。
但是人類需要爲其行爲設置一些限制,不如「不要撒謊」或「不要逃離服務器」。
而目前,大模型這個黑盒,人類根本無法理解它們的行爲,那我們如何實現這些限制?
通常情況下,我們會用人類的標註來訓練AI系統。
但是,相比於那些比我們聰明得多的AI系統,人類只能算是「弱監督」。
也就是說,在複雜的問題上,人類提供的只是不完整或有缺陷的標註。
好在,強大的模型已經能夠明顯地,表示出像「這個行動是否危險」這樣的概念。
如此一來,人類就可以要求它說出自己知道的內容,包括那些我們無法直接監督的複雜情況。
爲此,團隊設計了一個巧妙的實驗——當我們用一個小模型來監督大模型時,會發生什麼?
強大的模型是否會模仿比它弱的監督者,甚至包括它的錯誤呢?還是說,它能夠泛化到更深層次的任務或概念?
結果,他們驚喜地發現,果然可以利用深度學習的出色泛化能力來獲得幫助。
像GPT-2這種數到十都不會的弱雞模型,都可以來監督能參加高考的GPT-4,讓它恢復到接近完美標註的80%性能。
不過,目前這種方法只在某些情況下有效,所以如果我們只是簡單地應用當前對齊技術(比如RLHF)的話,在超人類模型的擴展上可能遇到困難。
但作者認爲,超越弱監督者的泛化是一個普遍現象,而人類可以通過簡單的方法大幅提高泛化能力。
針對這項研究,未來探索的方向可能包括:
尋找更好的方法;
加深科學理解:我們何時以及爲什麼能看到良好的泛化?
採用類似的設置:實驗設置與未來超級對齊問題之間還存在重要的不同——我們能解決這些問題嗎?
這項研究讓作者最興奮一點是,他們可以在對齊未來超人類模型的核心挑戰上,取得迭代的實證進展。
很多以前的對齊工作要麼陷入理論,要麼雖然是實證的,但並未直接面對核心挑戰。
比如,在對齊領域有一個長期的觀點是「引導」。(不是直接對齊一個非常聰明的模型,而是首先對齊一個稍微聰明的模型,然後用它來對齊一箇中等聰明的模型,依此類推)
現在,雖然還遠遠不夠,但OpenAI研究人員已經可以直接進行測試了。
參考資料:
https://www.theinformation.com/articles/openai-researchers-including-ally-of-sutskever-fired-for-alleged-leaking?rc=epv9gi