谷歌AI掌門人:發展AI不能只靠堆硬件,想把大模型和AlphaGo能力結合

2月20日消息,在接受《連線》雜誌採訪時,Google DeepMind首席執行官戴米斯·哈薩比斯(Demis Hassabis)表示,儘管人工智能領域已取得了顯著的進展,但真正的突破尚未到來。他強調,簡單地擴大規模無法推進行業的發展。

在過去一年中,OpenAI通過ChatGPT等項目在業界獨佔鰲頭。然而,在哈薩比斯的帶領下,Google DeepMind並未因此氣餒,而是在人工智能模型研發上展現了強大的競爭力和創新精神。

自從Alphabet去年4月合併了其兩個人工智能部門爲Google DeepMind後,哈薩比斯一直專注於整合資源,應對OpenAI的崛起及其與微軟的深度合作,後者被Alphabet視爲對其核心業務——搜索引擎的潛在威脅。

哈薩比斯透露,谷歌研究人員在ChatGPT發佈前已有類似想法,但由於擔心濫用和誤用,決定暫不商業化該技術。

隨着多模態人工智能模型Gemini的迅猛發展,Google DeepMind在研究和發佈速度上發生了巨大變化。Gemini不僅提升了谷歌在與ChatGPT競爭中的實力,也強化了多個谷歌產品。Gemini發佈兩個月後,谷歌推出了更爲強大的免費版Gemini Pro 1.5,該模型能同時分析大量文本、視頻和音頻數據。

隨着科技巨頭們紛紛開發和推出更強大、實用的人工智能系統,Alphabet推出的Gemini Ultra模型無疑爲行業樹立了新標杆,並可能促使競爭對手如OpenAI加速研發。

最近,哈薩比斯在倫敦家中接受了《連線》雜誌資深作家威爾·奈特(Will Knight)的專訪,深入探討了Gemini Pro 1.5的技術細節和未來發展,及人工智能領域的趨勢。

全文如下:

問:Gemini Pro 1.5能接收更多數據作爲輸入,並採用了名爲“專家混合”的架構,這兩者之間是什麼關係?

哈薩比斯:Gemini Pro 1.5能處理適中大小的短片。想象你在學習某主題,有一個小時的視頻講座,你需要找到特定事實或內容,這非常有用。我相信這將帶來許多令人驚歎的用例。

在Google DeepMind首席科學家傑夫·迪恩(Jeff Dean)的領導下,我們發明了“專家混合”架構,並不斷優化改進。儘管Gemini Pro 1.5還未廣泛測試,但性能已與上一代最大模型相當。這表明我們有能力利用這些技術創新創建更大的模型,這正是我們的努力方向。

問:計算能力增強和用於訓練AI模型的數據量增加,是否推動了人工智能進步?據說,奧特曼打算籌集高達7萬億美元資金提高AI芯片產量,更強的計算能力會開啓超級AI之門嗎?

哈薩比斯:確實,這些因素推動了人工智能巨大進步。這也是爲何像英偉達這樣的公司如此成功,以及OpenAI提高芯片產量加速AI發展的原因。然而,我認爲DeepMind與其他組織有所不同,始終將基礎研究放在首位。在GoogleResearch、Brain和DeepMind等部門,我們在過去10年的開創性工作中發明了多數機器學習技術。這是我們的核心競爭力,我們擁有大量其他機構可能不具備的資深研究科學家。相較之下,其他公司更注重工程研究以推動科學進步。

問:你認爲擴展規模不再是AI發展唯一途徑?

哈薩比斯:我堅信,實現通用AI(AGI)需要更多技術創新和規模擴展。雖然規模擴展仍在繼續,並且沒有看到任何停止的跡象,但我們不能僅依賴它獲得新能力,如規劃、工具使用或類主體行爲,這需技術創新實現。我們還需在計算本身探索。我們希望在小型問題上實驗,這隻需幾天訓練。但發現小型規模上有效的方法在擴展時不適用,所以我們需找到平衡點,推斷可能適用於更大規模的方法時進行擴展。

問:這是否意味着未來AI公司競爭是否將圍繞工具使用和智能體展開,即AI可以做很多事,不僅限於聊天?據稱OpenAI正在研究這個問題。

哈薩比斯:可能。我們在這條路上探索了很長時間。自AlphaGo以來,智能體、強化學習和規劃一直是我們的主要工作。2016年,DeepMind開發了一種突破性算法,能解決複雜問題和玩複雜遊戲。我們正在重新審視很多想法,並考慮將AlphaGo的能力與這些大模型結合。內省和規劃能力將有助於消除幻覺等問題。

問:如何引導模型使其更具邏輯性?

哈薩比斯:這是一個大領域,我們投入了大量時間和精力。我們認爲,當系統開始變得更像智能主體時,這將是它們能力的重大進步。我們在這方向投入了大量資金,其他公司也一樣。我一直在安全論壇和會議上說,這是一個大改變。一旦我們讓類似智能體的系統工作起來,人工智能就會與目前系統(基本上是被動問答系統)大不同,因爲它們會變成主動型學習者。當然,它們也會更有用,因爲能幫你完成任務。但我們將不得不更加小心。

我一直主張把智能體放到網上之前,用強化的模擬沙盒測試它們。我認爲行業應認真考慮這些系統的出現,並採取措施確保安全性。也許要幾年,也許更早,但這是另一類不同的系統。

問:你提到需要更多時間來測試你們最強模型Gemini Ultra。這是因爲模型開發進度過快,還是因爲這類大型模型存在潛在問題?

哈薩比斯:實際上兩方面都有。模型規模越大,微調時面臨的挑戰越複雜,所需時間越長。更大模型具備更多功能,意味着我們需更全面測試。

值得一提的是,隨着Google DeepMind變成更成熟穩定的組織,我們開始嘗試新的發佈策略。我們會提前發佈實驗性功能或模型,並邀請少部分受信任的早期測試者體驗。這樣,我們可以在正式發佈前收集反饋並進行必要的調整。

問:關於安全性問題,你們與英國人工智能安全研究所等政府機構合作進展如何?

哈薩比斯:合作非常順利。雖然我不能透露太多細節,因爲這是保密的,但可以確認,他們正在對我們的前沿模型包括Gemini Ultra進行測試。我們將繼續與他們保持密切合作。

此外,美國也在建立類似人工智能安全機構。這些機構都是在布萊切利公園人工智能安全峰會推動下成立的,旨在審查和監管人工智能系統,特別是涉及敏感領域如化學、生物、放射性和核武器等。目前系統還沒有強大到足以引發實質性安全擔憂的程度。但加強政府、行業和學術界在人工智能安全方面的合作和投入仍非常必要。隨着智能體系統等新型人工智能技術出現,我們可能面臨更多新挑戰和變化。我們會看到漸進式改進,可能有很酷的大改進,但會感覺不同。(小小)