謝賽寧對談Aditya Ramesh:確保模型的安全性和對社會的影響是Sora更新的前提條件

6月14日消息,在2024北京智源大會上,紐約大學助理教授謝賽寧與Open AI Sora及DALL· E團隊負責人Aditya Ramesh進行對話。

對於Sora,謝賽寧問到是否後續會有更爲重磅的更新。Aditya Ramesh表示,我們需要進行大量的工作以確保Sora模型的安全和對社會的影響。我們也很高興看到市場上越來越多的類Sora應用的問世,我們也會學習這些模型的優勢。

謝賽寧針對Aditya Ramesh曾發佈的一篇名爲“語言模型被高估”的帖子發問到,你如何看待人類語言模型與現實建模的關係。

Aditya Ramesh表示,在任何視頻中你都可以獲得大量信息,而有些信息是不容易用語言表示的,所以我認爲語言是建模過程中的重要一環。對於能夠進行理解與推理的智能系統而言視覺是一種更爲通用的界面,在未來,建模任何你想建模的東西的能力是未來大模型發展的一塊重要的墊腳石。

隨後謝賽寧追問道,在語言作爲非常強大的先驗的前提下,如何確保語言不會成爲一種建模的捷徑。

Aditya Ramesh迴應道,目前研究者在用真正描述性的標題將文本訓練成圖像時,無需花費過多精力,同時隨着我們在模型訓練中的投入越來越大,我們發現模型對語言的依賴程度隨之降低,並且可以開始自主解決問題,這在一定程度上可以減少語言對建模的干擾。

謝賽寧在談到Open AI中的年輕的研究人員正在利用他們的熱情和經驗作出像Sora之類的突出貢獻時,Aditya Ramesh表示,這首先得益於Open AI總體上的招聘策略,Open AI更加關注研究者的真正能力,學歷要素在其中的佔比相對較低;其次,Open AI有一個長期的研究目標,所有的研究人員可以專注於此併爲之努力。

謝賽寧在邀請Aditya Ramesh爲下一代研究人員提供一些建議時,Aditya Ramesh表示,研究人員在針對不同的研究項目時,獨立的思考和解釋能力至關重要,同時也要關注目前的前沿熱點,這可能對研究有所幫助。(薛世軒)

本文系本站科技報道,更多新聞資訊和深度解析,關注我們。