中國新型計算架構受大腦啓發,接近通用人工智能

中國的科學家們創造了一種新的計算架構,該架構在訓練先進的人工智能(AI)模型時能夠耗費更少的計算資源——並且他們希望有朝一日這能通向通用人工智能(AGI)。

當今最先進的 AI 模型——主要是像ChatGPT 或 Claude 3 這樣的大型語言模型(LLM)——使用神經網絡。這些是分層排列的機器學習算法集合,以類似於人腦的方式處理數據,並權衡不同的選項以得出結論。

LLM 目前存在侷限性,因爲它們無法超出訓練數據的範圍進行執行,也不能像人類一樣出色地推理。

然而,AGI 是一個設想中的系統,能夠進行推理、情境化處理、編輯自身代碼,並理解或學習人類能夠完成的任何智力任務。

如今,創建更智能的人工智能系統得依靠構建規模更大的神經網絡。一些科學家認爲 如果神經網絡的規模足夠大,就有可能催生出通用人工智能。但鑑於能源消耗以及對計算資源的需求也會跟着增加,這種做法可能不太實際。

要實現未來的通用人工智能系統,需要新的架構或者不同計算架構的組合。在這方面,8 月 16 日,發表在《自然計算科學》雜誌上的一項新研究提出了一種受人類大腦啓發的新型計算架構,有望解決擴大神經網絡規模所面臨的實際問題。

“人工智能(AI)研究人員目前認爲,構建更通用模型問題的主要方法是大型 AI 模型,現有的神經網絡在深度、規模和廣度上不斷拓展。我們把這種方法稱作具有外部複雜性的大模型方法,”科學家在研究中說道。“在這項工作中,我們認爲還有另一種被稱爲具有內部複雜性的小模型的方法,它能夠用於找到將豐富屬性融入神經元從而構建更大且更高效的 AI 模型的合適路徑。”

科學家在一份聲明中說道,人類大腦有 1000 億個神經元和近 1000 萬億個突觸連接——每個神經元都受益於豐富多樣的內部結構。然而,它的功耗僅僅約爲 20 瓦。

爲了模仿這些特性,研究人員採用了一種側重於“內部複雜性”而非擴大人工智能架構那種“外部複雜性”的方法——其理念在於,專注於讓單個人工神經元變得更復雜會帶來更高效和強大的系統。

他們構建了一個具有豐富內部複雜性的霍奇金 - 赫胥黎(HH)網絡,其中每個人工神經元都是一個 HH 模型,其內部複雜性能夠擴展。

霍奇金 - 赫胥黎是一種計算模型,根據 2022 年的一項研究,它模擬神經活動,並在捕捉神經元尖峰(即神經元相互交流所用的脈衝)方面表現出最高的準確性。2021 年的一項研究表明,它對於代表真實神經元的放電模式具有很高的合理性,因此適用於對旨在複製人類認知過程的深度神經網絡架構進行建模。

在該研究中,科學家們證明了這種模型能夠高效、可靠地處理複雜任務。他們還表明,基於這種架構的小型模型表現與大得多的傳統人工神經元模型一樣好。

儘管通用人工智能是科學仍未達到的一個里程碑,但一些研究人員表示,人類構建出第一個這樣的模型只是時間問題——儘管對於如何達成這一目標存在不同看法。例如,SingularityNET 已經 提議構建一個超級計算的網絡 ,該網絡依賴於不同架構的分佈式網絡來訓練未來的通用人工智能模型。