黃鐵軍:智力革命已經打響,開源開放生態終將勝利
黃鐵軍北京大學計算機學院教授、人工智能研究院副院長
以下觀點整理自黃鐵軍在CMF宏觀經濟熱點問題研討會(第73期)上的發言
本文字數:2176字
閱讀時間:6分鐘
一、大模型的特點
經過六七十年的發展,人工智能形成了很多技術路線,大模型是其最新進展。大模型以聯結主義和神經網絡學派爲基本支撐。聯結主義學派的發展始於上世紀四十年代,他們試圖建立一個神經網絡,能夠通過給出訓練數據,建立輸出和輸入間的映射關係。比如人臉識別,輸入的是照片,輸出的是人的ID或者名字。從數學上講,在神經元足夠多的情況下,只要是三層神經網絡,任意輸入、輸出之間的映射關係都可以建立。但問題在於,要建立一個複雜龐大的映射網絡,需要的連接數量也是巨大的。
例如,在一個簡單的三層神經網絡中,假設每層有100個神經元,則會有1萬個數據樣本,迭代1萬輪,要想收斂到這樣的一個分類識別系統,需要2萬億次調整。這就是大模型訓練需要耗費大算力的原因,只有將連接權值調整到合適的狀態,它才能按照預想方式工作。
大模型主要具有以下幾個特點:
1、規模大
關於什麼是大模型有很多爭論,現在基本收斂到一個共識,即網絡參數至少要達到百億規模,一般需要幾百億的規模纔會產生預想的智能。
2、涌現性
傳統AI只能給出封閉、確定的答案,而大模型不僅規模要大,而且一定要能涌現出預料之外的新能力。當網絡參數達到數百億時,大模型就成爲了一個複雜系統,會像其他的物理系統一樣產生“涌現”現象,出現融會貫通的能力。雖然現在還無法解釋其原理,但這種能力確實存在,這也是最讓大家最興奮的地方。
3、通用性
大模型的應用不限於專門的問題和領域,這從經濟角度來說是特別重要的。如果大模型能夠解決通用問題,它就具有了很好的邊際價值和推廣性。
北京智源人工智能研究院自2018年成立後,很快切入大模型的賽道,是國內最早佈局大模型的機構,聚焦於探索大模型背後的技術體系。大模型這個中文概念也是2021年智源研究院發佈1.0版本的大模型時提出來的。
2021年6月,我們思考了一個問題:大模型到底意味着什麼?當時我們提出,如果要讓大模型的能力足夠強,服務足夠及時,就一定要儘可能地吸收全量數據,建立24×7訓練、24×7服務的運營體系。這樣的體系在全球範圍內屈指可數,不會超過五個。因爲大模型歸根結底是一個數字形式的智能服務,存在一定的壟斷屬性,再加上對大規模和實時數據的要求,運營難度是非常大的。
2022年2月,智源開始研究誰有可能擁有這種運營能力。當時美國普遍認爲是Google,或者是OpenAI+微軟。去年11月ChatGPT發佈,OpenAI佔據了先發優勢,不過Google也緊隨其後。當前中國已經有十多個模型在運營了,但我認爲這只是短期的狀態,長期內會收斂到最多兩三個。
二、大模型對於人類的意義
大模型開啓了智業革命的時代,縱觀人類歷史,只有兩件事可以與之相提並論。
相較工業革命而言,如今我們面臨的是全新的革命,即智業革命。工業革命替代人的體力,而智業革命替代人的智力,因此它可以與工業革命相提並論。
相較電力這種革命的產業形態而言,電力讓能源以流通的方式進入家庭和企業,智力革命也是如此。大模型相當於發電機,它不是產業中最主要的產品形態。在未來的幾年甚至幾十年內,智力運營系統將會源源不斷地爲社會提供智力。
今年,國家成立了國家數據局,這是因爲智能的源頭是各種各樣的數據。但數據只是一個生產要素,要將這種生產要素轉換成經濟社會發展的動力還需要依靠智力,並通過大模型訓練智力。因此,將來可能會出現像國家電網一樣的國家智網或國家智雲,作爲基礎設施,爲千行百業、千家萬戶提供服務。
自2021年起,智源研究院的研究重點從一個個具體的大模型轉向通過協同創新的方式,爲這個時代構建一個先進的技術體系。智源的FlagOpen飛智大模型基礎軟件開源系統是由智源牽頭,多家共建的大模型開源開放軟件體系,將進一步推動智力革命。
總結來說,當前ChatGPT已經擁有了很強大的智能。未來3年,除了語言模型會被廣泛使用之外,視覺、聽覺、具身、行動等通用智能的技術路線也會出現,並且影響會更大。
未來10年,智力革命會廣泛普及,就像工業革命解放的是體力,電力革命解決的是能源流通的問題一樣,它將構建一個全新的生態體系,這需要全社會共同努力,而開源開放將成爲聯合各方的基本方式。
未來20年,AI技術還會快速發展。目前以ChatGPT爲代表的是以數據驅動的靜態的智能,而未來的智能將是以時空環境驅動的具身智能,能夠進行實時感知、實時決策、實時行動。如此來看,當前的神經網絡還有很大的進步空間,它將不再是一個Transformer,而是類似於人腦的脈衝神經網絡。我認爲,到2045年,無論是從物理載體還是從能力上來說,超越人類的電子大腦和智能系統都會出現,經濟發展將迎來一個新的黃金期。與此同時,這也將帶來更大的安全問題,甚至比電力時代要大得多。因此,要同等重視AI安全和人類面臨的風險。