谷歌曾花4400萬美元,買下了如今這位諾獎得主的“小公司”

點擊圖片進入歷年諾貝爾獎解讀合集

2024年諾貝爾物理學獎頒發給了約翰·霍普菲爾德 (John Hopfield)與傑弗裡·辛頓(Geoffrey Hinton),以表彰他們在人工神經網絡機器學習方面的基礎性發現和發明。

故事發生在12年前。

2012年12月初的一天,一場秘密競拍正在美國滑雪勝地太浩湖(Lake Tahoe)的一家賭場酒店裡進行。

太浩湖位於加州和內華達州交界處,是北美最大的高山湖泊,擁有藍寶石般的湖面和頂級雪道,《教父2》曾在這裡取景,馬克吐溫曾在此地流連忘返,而由於離舊金山灣區只有200多英里,這裡常被稱爲“硅谷後花園”,扎克伯格和拉里·埃裡森等大佬也在此圈地佔山,興建豪宅。

秘密競拍的對象,是一家剛剛成立1個月、僅有3名員工的公司——DNNresearch,創立者是多倫多大學教授傑夫·辛頓(Geoffrey Hinton)和他兩名學生。

這家公司沒有任何有形的產品或資產,但追求者的身份暗示出了它的分量——四位買家分別是Google、微軟、DeepMind和百度。

舉行秘密競拍的Harrah's酒店,太浩湖,2012年

65歲的辛頓蒼老,瘦削,飽受腰椎間盤的疼痛,他坐在酒店703房間的地板上爲競拍設置規則——起價1200萬美元,擡價單位至少100萬美元。

幾個小時後,競拍者就把價格推到了4400萬美元,辛頓有些頭暈,“感覺我們像是在拍電影”,於是果斷喊停,並決定把公司賣給最後的喊價者——Google。

有意思的是,這場4400萬美元競拍的源頭之一,就是來自於6個月前的Google。

2012年6月,Google研究部門Google Brain公開了The Cat Neurons項目(即“谷歌貓”)的研究成果。這個項目簡單說就是用算法在YouTube的視頻裡識別貓,它由從斯坦福跳槽來Google的吳恩達發起,拉上了Google傳奇人物Jeff Dean入夥,還從Google創始人Larry Page那裡要到了大筆的預算。

谷歌貓項目搭建了一個神經網絡,從YouTube上下載了大量的視頻,不做標記,讓模型自己觀察和學習貓的特徵,然後動用了遍佈Google各個數據中心的16000個CPU來進行訓練(內部以過於複雜和成本高爲由拒絕使用GPU),最終實現74.8%的識別準確率。這一數字震驚業界。

吳恩達在“谷歌貓”項目臨近結束前激流勇退,投身自己的互聯網教育項目,臨走前他向公司推薦了辛頓來接替他的工作。面對邀請,辛頓表示自己不會離開大學,只願意去Google“待一個夏天”。由於Google招聘規則的特殊性,時年64歲的辛頓成爲了Google歷史上最年長的暑期實習生。

辛頓從80年代開始就戰鬥在人工智能的最前線,作爲教授更是桃李滿門(包括吳恩達),是深度學習領域的宗師級人物。因此,當他了解了“谷歌貓”項目的技術細節後,他馬上就看到了項目成功背後的隱藏缺陷:“他們運行了錯誤的神經網絡,並使用了錯誤的計算能力。”

同樣的任務,辛頓認爲自己可以做的更好。於是在短暫的“實習期”結束後,他馬上投入行動。

辛頓找來了自己的兩個學生——Ilya Sutskever和Alex Krizhevsky,兩人都是出生於蘇聯的猶太人,前者極具數學天賦,後者擅長工程實現,三人密切配合後創建了一個新神經網絡,然後馬上參加了ImageNet圖像識別比賽(ILSVRC),最後以驚人的84%識別準確率奪得冠軍 。

2012年10月,辛頓團隊在佛羅倫薩舉行的計算機視覺會議上介紹了冠軍算法AlexNet,相比谷歌貓用了16000顆CPU,AlexNet只用了4顆英偉達GPU,學術界和產業界徹底轟動,AlexNet的論文成爲計算機科學史上最有影響力的論文之一,目前被引次數已經超過12萬,而谷歌貓則被迅速遺忘。

DNNresearch公司三人組

曾拿過第一屆ImageNet大賽冠軍的餘凱讀完論文後異常興奮,“像觸電了一樣”。餘凱是一名出生於江西的深度學習專家,剛從NEC跳去百度,他馬上給辛頓寫郵件,表達了合作的想法,辛頓欣然同意,並索性把自己和兩名學生打包成一家公司,邀請買家競拍,於是便有了開頭的那一幕。

拍賣落槌後,一場更大的競賽展開了:Google乘勝追擊,2014年又把DeepMind收入囊中,“天下英雄盡入彀中”;而DeepMind則在2016年推出了AlphaGo,震驚全球;輸給Google的百度則下定決心押注AI,十年投入千億,餘凱後來幫百度請來了吳恩達,他自己則在幾年後離職創辦了地平線。

微軟表面上看慢了一拍,但最終卻贏下了最大的戰利品——OpenAI,後者的創始人就包括辛頓兩個學生之一的Ilya Sutskever。而辛頓自己則一直在Google待到2023年,期間榮獲ACM圖靈獎。當然,跟Google的4400萬美元比(辛頓分得40%),圖靈獎的100萬美元獎金就顯得像是零花錢了。

從6月的谷歌貓,到10月的AlexNet論文,再到12月的太浩湖競拍,差不多6個月的時間裡,AI浪潮的伏筆幾乎被全部埋下——深度學習的繁榮、GPU和英偉達的崛起、AlphaGo的稱霸、Transformer的誕生、ChatGPT的橫空出世……硅基盛世的宏大樂章奏響了第一個音符。

2012年從6月到12月的180天,碳基人類的命運被永遠改變了——只有極少人意識到了這一點。

液體貓

在這些極少數人中,斯坦福大學教授李飛飛是其中之一。

2012年,當辛頓參加ImageNet比賽結果出爐時,剛生完孩子的李飛飛還在休產假,但辛頓團隊的錯誤率讓她意識到歷史正在被改寫。作爲ImageNet挑戰賽的創辦者,她買了當天最後一班飛機飛往佛羅倫薩,親自爲辛頓團隊頒獎[2]。

李飛飛出生於北京,在成都長大,16歲時隨父母移民美國,一邊在洗衣店幫忙,一邊讀完普林斯頓。2009年李飛飛進入斯坦福擔任助理教授,研究方向是計算機視覺與機器學習,這個學科的目標是讓計算機能夠像人一樣,自己理解圖片和影像的含義。

比如,當照相機拍下一隻貓時,它只是通過傳感器把光線轉化成了像素,並不知道鏡頭裡的東西是貓還是狗。如果把照相機比做人類的眼睛,計算機視覺解決的問題就是給照相機裝上人的大腦。

傳統的方式是將現實世界中的事物抽象爲數學模型,比如將貓的特徵抽象爲簡單的幾何圖形,就能大幅度降低機器識別的難度。

圖片來源:李飛飛的TED演講

但這種思路有非常大的侷限性,因爲貓很有可能是這樣的:

爲了讓計算機能夠識別“液體貓”,傑夫·辛頓、楊立昆(Yann LeCun)等一大批深度學習先驅從80年代就開始了探索。但總會撞到算力或算法的瓶頸——好的算法缺少足夠的算力驅動,算力需求小的算法難以滿足識別精度,無法產業化。

如果解決不了“液體貓”的問題,深度學習的性感就只能停留在理論層面,自動駕駛、醫療影像、精準廣告推送這些產業化場景就只是空中樓閣。

簡單來說,深度學習的發展需要算法、算力、數據三駕馬車來拉動,算法決定了計算機用什麼方式識別事物;但算法又需要足夠大的算力來驅動;同時,算法的提升又需要大規模高質量的數據;三者相輔相成,缺一不可。

2000年後,儘管算力瓶頸伴隨芯片處理能力的突飛猛進逐步消除,但主流學界對深度學習路線仍舊興趣寡然。李飛飛意識到,瓶頸可能不是算法本身的精度,而在於缺乏高質量、大規模的數據集。

李飛飛的啓發來自三歲孩子認識這個世界的方式——以貓爲例,孩子會在大人的教導下一次又一次遇見貓,逐漸掌握貓的含義。如果把孩子的眼睛當作照相機,眼球轉動一次等於按一次快門,那麼,一個三歲的孩子就已經拍攝了上億張照片。

把這個方法套在計算機上,假如給計算機不停的看包含貓和其他動物的圖片,同時在每張圖片背後寫下正確答案。計算機每看一次圖片,就和背面的答案覈對一次。那麼只要次數夠多,計算機就有可能像孩子一樣掌握貓的含義。

唯一需要解決的問題就是:上哪找那麼多寫好答案的圖片?

李飛飛在2016年來到中國,宣佈谷歌AI中國中心成立

這就是ImageNet誕生的契機。當時,即便是最大規模的數據集PASCAL,也只有四個類別總共1578張圖片,而李飛飛的目標是創建一個包含幾百個類別總共上千萬張的數據集。現在聽起來似乎不難,但要知道那是2006年,全球最流行的手機還是諾基亞5300。

依靠亞馬遜衆包平臺,李飛飛團隊解決了人工標註的龐大工作量。2009年,包含320萬張圖片的ImageNet數據集誕生。有了圖片數據集,就可以在此基礎上訓練算法,讓計算機提升識別能力。但相比三歲孩子的上億張照片,320萬的規模還是太少了。

爲了讓數據集不斷擴充,李飛飛決定效仿業內流行的做法,舉辦圖片識別大賽,參賽者自帶算法識別數據集中的圖片,準確率最高者獲勝。但深度學習路線在當時並不是主流,ImageNet一開始只能“掛靠”在歐洲知名賽事PASCAL下面,才能勉強湊夠參賽人數。

到了2012年,ImageNet的圖片數量擴大到了1000個類別總共1500萬張,李飛飛用6年時間補足了數據這塊短板。不過,ILSVRC的最好成績錯誤率也有25%,在算法和算力上,依然沒有表現出足夠的說服力。

這時,辛頓老師帶着AlexNet和兩塊GTX580顯卡登場了。

卷積

辛頓團隊的冠軍算法AlexNet,採用了一種名叫卷積神經網絡(Convolutional Neural Networks,簡稱CNN)的算法。“神經網絡”在人工智能領域是個極其高頻的詞彙,也是機器學習的一個分支,其名稱和結構都取材自人腦的運作方式。

人類辨識物體的過程是瞳孔先攝入像素,大腦皮層通過邊緣和方位做初步處理,然後大腦通過不斷的抽象來判定。因此,人腦可以根據一些特徵就能判別出物體。

比如不用展示整張臉,大部分人都能認出下圖中的人是誰:

神經網絡其實就是模擬人腦的識別機制,理論上人腦能夠實現的智能計算機也能實現。相較SVM、決策樹、隨機森林等方法,只有模擬人腦,才能處理類似“液體貓”和“半個特朗普”這種非結構化數據。

但問題是,人腦約有1000億個神經元,神經元之間的節點(也就是突觸)更是多達萬億,組成了一個無比複雜的網絡。作爲對比,用了16000個CPU組成的“谷歌貓”,內部共有10億個節點,而這已經是當時最複雜的計算機系統了。

這也是爲什麼連“人工智能之父”Marvin Minsky都不看好這條路線,在2007年出版新書《The Emotion Machine》時,Minsky依然表達了對神經網絡的悲觀。爲了改變主流機器學習界對人工神經網絡的長期的消極態度,辛頓乾脆將其改名爲深度學習(Deep Learning)。

2006年,辛頓在Science上發表了一篇論文,提出了“深度信念神經網絡(DBNN)”的概念,給出了一種多層深度神經網絡的訓練方法,被認爲是深度學習的重大突破。但辛頓的方法需要消耗大量的算力和數據,實際應用難以實現。

深度學習需要不停的給算法喂數據,當時的數據集規模都太小了,直到ImageNet出現。

ImageNet的前兩屆比賽裡,參賽團隊使用了其他的機器學習路線,結果都相當平庸。而辛頓團隊在2012年採用的卷積神經網絡AlexNet,改良自另一位深度學習先驅楊立昆(Yann LeCun),其在1998年提出的LeNet讓算法可以提取圖像的關鍵特徵,比如特朗普的金髮。

同時,卷積核會在輸入圖像上滑動,所以無論被檢測物體在哪個位置,都能被檢測到相同的特徵,大大減少了運算量。

AlexNet在經典的卷積神經網絡結構基礎上,摒棄了此前的逐層無監督方法,對輸入值進行有監督學習,大大提高了準確率。

比如下圖中右下角的圖片,AlexNet其實並沒有識別出正確答案(馬達加斯加貓),但它列出的都是和馬達加斯加貓一樣會爬樹的小型哺乳動物,這意味着算法不僅可以識別對象本身,還可以根據其他物體進行推測[5]。

圖片來源:AlexNet論文

而產業界感到振奮的是,AlexNet有6000萬個參數和65萬個神經元,完整訓練ImageNet數據集至少需要262千萬億次浮點運算。但辛頓團隊在一個星期的訓練過程中,只用了兩塊英偉達GTX 580顯卡。

GPU

辛頓團隊拿到冠軍後,最尷尬的顯然是Google。

據說Google在內部也做了ImageNet數據集的測試,但識別精度遠遠落後於辛頓團隊。考慮到Google擁有業界無法企及的硬件資源,以及搜索和YouTube的龐大數據規模,Google Brain更是領導欽點特事特辦,其結果顯然不具備足夠的說服力。

如果沒有這種巨大的反差,深度學習可能也不會在短時間內震撼業界,得到認可和普及。產業界感到振奮的原因在於辛頓團隊只用了四塊GPU,就能達到這麼好的效果,那麼算力就不再是瓶頸。

算法在訓練時,會對神經網絡每層的函數和參數進行分層運算,得到輸出結果,而GPU恰好有非常強的並行運算能力。吳恩達在2009年的一篇論文中其實證明了這一點,但在和Jeff Dean運行“谷歌貓”時,他們還是用了CPU。後來Jeff Dean專門訂購了200萬美元的設備,依然不包括GPU[6]。

辛頓是極少數很早就意識到GPU之於深度學習巨大價值的人,然而在AlexNet刷榜之前,高科技公司普遍對GPU態度不明。

2009年,辛頓曾受邀去微軟做一個語音識別項目的短期技術顧問,他建議項目負責人鄧力購買最頂級的英偉達GPU,還要搭配對應的服務器。這個想法得到了鄧力的支持,但鄧力的上司Alex Acero認爲這純屬亂花錢[6],“GPU是用來玩遊戲的,而不是用來做人工智能研究的。”

鄧力

有趣的是,Alex Acero後來跳槽去了蘋果,負責蘋果的語音識別軟件Siri。

而微軟對GPU的不置可否顯然讓辛頓有些火大,他後來在一封郵件裡建議鄧力購買一套設備,而自己則會買三套,並且陰陽怪氣的說[6]:畢竟我們是一所財力雄厚的加拿大大學,不是一家資金緊張的軟件銷售商。

但在2012年ImageNet挑戰賽結束後,所有人工智能學者和科技公司都對GPU來了個180度大轉彎。2014年,Google的GoogLeNet以93%的識別準確率奪冠,採用的正是英偉達GPU,這一年,所有參賽團隊GPU的使用數量飆升到了110塊。

這屆挑戰賽之所以被視爲“大爆炸時刻”,在於深度學習的三駕馬車——算法、算力、數據上的短板都被補足,產業化只剩下了時間問題。

算法層面,辛頓團隊發表的關於AlexNet的論文,成爲計算機科學領域被引用次數最多的論文之一。原本百家爭鳴的技術路線成了深度學習一家獨大,幾乎所有的計算機視覺研究都轉向了神經網絡。

算力層面,GPU超強並行計算能力與深度學習的適應性迅速被業界認可,六年前開始佈局CUDA的英偉達成爲了最大的贏家。

數據層面,ImageNet成爲圖像處理算法的試金石,有了高質量的數據集,算法識別精度日行千里。2017年最後一屆挑戰賽,冠軍算法的識別準確率達到97.3%,超過了人類。

2012年10月底,辛頓的學生Alex Krizhevsky在意大利佛羅倫薩的計算機視覺會議上公佈了論文。然後,全世界的高科技公司開始不計成本地兩件事:一是買光英偉達的顯卡,二是挖光大學裡的AI研究員。

太浩湖的4400萬美元,給全球的深度學習大神做了一次重新定價。

奪旗

從公開可查的信息看,當時還在百度的餘凱的確是第一個來挖辛頓的人。

當時,餘凱在百度擔任百度多媒體部的負責人,也就是百度深度學習研究院(IDL)的前身。在收到餘凱的郵件後,辛頓很快就回復說同意合作,順帶提出了希望百度提供一些經費的願望。餘凱問具體數字,辛頓表示100萬美元就夠——這個數字低到令人難以置信,只能僱兩個P8。

餘凱向李彥宏請示,後者爽快地答應。餘凱回覆沒問題後,辛頓可能感受到了產業界的飢渴,就詢問餘凱是否介意自己問問其他家,比如Google。餘凱後來在回憶道[6]:

“我當時有點兒後悔,猜我可能回答得太快了,讓辛頓意識到了巨大的機會。但是,我也只能大度地說不介意。”

最終百度跟辛頓團隊失之交臂。但對於這個結果,餘凱並非沒有心理準備。因爲一方面辛頓有嚴重的腰椎間盤健康問題,不能開車,也不能坐飛機,很難承受跨越太平洋的中國之旅;另一方面,辛頓有太多的學生和朋友在Google工作了,雙方淵源太深,其他三家本質上就是在陪標。

如果說AlexNet的影響還集中在學術圈的話,那麼太浩湖的秘密拍賣則徹底震驚了產業界——因爲Google在全球科技公司的眼皮子底下,花了4400萬美元買了一家成立不到一個月、沒有產品、沒有收入,只有三個員工和幾篇論文的公司。

最受刺激的顯然是百度,雖然在拍賣上折戟,但百度管理層親眼目睹了Google如何不惜代價投資深度學習,促使百度下定決心投入,並在2013年1月的年會上宣佈成立深度學習研究院IDL。2014年5月,百度請來了“谷歌貓”項目的關鍵人物吳恩達,2017年1月,又請來了離開微軟的陸奇。

而Google在拿下辛頓團隊後再接再厲,在2014年以6億美元買下了當年的競拍對手DeepMind。

當時,馬斯克向Google創始人Larry Page推薦了自己投資的DeepMind,爲了能帶上辛頓一起去倫敦驗驗成色,Google團隊還專門包了架私人飛機,並且改造了座椅,解決辛頓不能坐飛機的問題[6]。

“英國選手”DeepMind在圍棋比賽上戰勝了李世石,2016年

和Google爭奪DeepMind的是Facebook。當DeepMind花落Google後,扎克伯格轉而挖來了“深度學習三巨頭”之一的楊立昆。爲了將楊立昆納入麾下,扎克伯格答應了他許多苛刻要求,比如AI實驗室設立在紐約,實驗室與產品團隊完全劃清界限,允許楊立昆繼續在紐約大學任職等等。

2012年ImageNet挑戰賽後,人工智能領域面臨着非常嚴重的“人才供需錯配”問題:

由於推薦算法、圖像識別、自動駕駛這些產業化空間被迅速打開,人才需求量暴增。但由於長期不被看好,深度學習的研究者是個很小的圈子,頂級學者更是兩隻手數得過來,供給嚴重不足。

這種情況下,如飢似渴的科技公司只能購買“人才期貨”:把教授挖過來,然後等他們把自己的學生也帶進來。

楊立昆加入Facebook後,先後有六名學生追隨他入職。準備在造車上躍躍欲試的蘋果挖來了辛頓的學生Ruslan Salakhutdinov,擔任蘋果首任AI總監。就連對衝基金Citadel也加入了搶人大戰,挖走了當年和辛頓搞語音識別、後來還代表微軟參與秘密競拍的鄧力。

此後的歷史我們再清楚不過:人臉識別、機器翻譯、自動駕駛等產業化場景日行千里,GPU訂單雪花一般飄向聖克拉拉的英偉達總部,人工智能的理論大廈也在日復一日的澆築。

2017年,Google在論文《Attention is all you need》裡提出Transformer模型,開啓瞭如今的大模型時代。幾年後,ChatGPT橫空出世。

而這一切的誕生,都可以追溯到2012年的ImageNet挑戰賽。

那麼,推動2012年“大爆炸時刻”誕生的歷史進程,又是在哪一年顯現的呢?

答案是2006年。

偉大

在2006年之前,深度學習的現狀可以借用開爾文男爵的那句名言來概括:深度學習的大廈已經基本建成了,只不過在陽光燦爛的天空下,漂浮着三朵小烏雲。

這三朵小烏雲就是算法、算力和數據。

正如前文所說,由於模擬了人腦的機制,深度學習是一種在理論上非常完美的方案。但問題在於,無論是它需要吞噬的數據,還是需要消耗的算力,在當時都是一個科幻級別的規模,科幻到學術界對深度學習的主流看法是:腦子正常的學者不會研究神經網絡。

但2006年發生的三件事改變了這一點:

辛頓和學生Salakhutdinov(就是後來去蘋果的那位)在Science上發表了論文Reducing the dimensionality of data with neural networks,第一次提出了有效解決梯度消失問題的解決方案,讓算法層面邁出了一大步。

Salakhutdinov(左一)與辛頓(中),2016年

斯坦福大學的李飛飛意識到,如果數據規模難以還原現實世界的原貌,那麼再好的算法也很難通過訓練達到“模擬人腦”的效果。於是,她開始着手搭建ImageNet數據集。

英偉達發佈Tesla架構的新款GPU,並隨之推出CUDA平臺,開發者利用GPU來訓練深度神經網絡的難度大幅度降低,望而生畏算力門檻被砍掉了一大截。

這三件事的發生吹散了深度學習上空的三朵烏雲,並在2012年的ImageNet挑戰賽上交匯,徹底改寫了高科技產業乃至整個人類社會的命運。

但在2006年,無論是傑夫·辛頓、李飛飛、黃仁勳,還是其他推動深度學習發展的人,顯然都無法預料人工智能在此後的繁榮,更不用說他們所扮演的角色了。

Hinton和Salakhutdinov的論文

時至今日,AI爲核心驅動的第四次工業革命又開啓了,人工智能的演進速度只會越來越快。如果說我們能得到多少啓發,也許不外乎以下三點:

1.產業的厚度決定創新的高度。

ChatGPT橫空出世時,“爲什麼又是美國”的聲音此起彼伏。但如果把時間拉長,會發現從晶體管、集成電路,到Unix、x86架構,再到如今的機器學習,美國學界和產業界幾乎都是領跑者的角色。

這是因爲,雖然關於美國“產業空心化”的討論不絕於耳,但以軟件爲核心的計算機科學這門產業,不僅從未“外流”到其他經濟體,反而優勢越來越大。至今70多位ACM圖靈獎的獲得者,幾乎全部是美國人。

吳恩達之所以選擇Google合作“谷歌貓”項目,很大程度上是因爲只有Google擁有算法訓練所需要的數據和算力,而這又建立在Google強大的盈利能力的基礎上。這就是產業厚度帶來的優勢——人才、投資、創新能力都會向產業的高地靠攏。

中國在自身的優勢產業裡,也在體現出這種“厚度優勢”。當前最典型的就是新能源車,一邊是歐洲車企包機來中國車展拜師新勢力,一邊是日本車企高管頻繁跳槽到比亞迪——圖什麼呢?顯然不是隻圖能在深圳交社保。

2.越是前沿的技術領域,人才的重要性越大。

Google之所以願意花4400萬美元買下辛頓的公司,是因爲在深度學習這樣的前沿技術領域,一個頂級學者的作用,往往大過一萬個計算機視覺專業的應屆生。假如當時競拍成功的是百度或微軟,人工智能的發展脈絡可能都會被改寫。

這種“爲了你買下整個公司”的行爲,其實非常常見。蘋果自研芯片的關鍵階段,順手買了一家PASemi的小公司,就是爲了把芯片架構大神Jim Keller挖到手——蘋果的A4、AMD的Zen、特斯拉的FSD芯片,都得到了Jim Keller的技術扶貧。

這也是產業競爭力帶來的最大優勢——對人才的吸引力。

“深度學習三巨頭”沒有一個是美國人,AlexNet這個名字來自辛頓的學生Alex Krizhevsky,他出生在蘇聯治下的烏克蘭,在以色列長大,來加拿大讀書。更不用說如今還活躍在美國高科技公司的衆多華人面孔。

3.創新的難度在於,如何面對不確定性。

除了“人工智能之父”Marvin Minsky反對深度學習之外,另一個知名深度學習反對者是加州大學伯克利分校的Jitendra Malik,辛頓和吳恩達都被他冷嘲熱諷過。李飛飛在搭建ImageNet時也曾諮詢過Malik,後者給她的建議是:Do something more useful(做點更有用的事)。

李飛飛Ted演講

正是這些行業先驅的不看好,導致深度學習經歷了數十年的萬馬齊喑。即便到了2006年辛頓撕開了一束曙光,三巨頭的另一位楊立昆還在反覆向學術界證明“深度學習也有研究價值”。

楊立昆從80年代就開始研究神經網絡,在貝爾實驗室期間,楊立昆就和同事設計了一種名叫ANNA的芯片,試圖解決算力問題。後來AT&T由於經營壓力要求研究部門“賦能業務”,楊立昆的回答是“我就是要研究計算機視覺,有本事你解僱我”。最終求錘得錘,喜提N+1[6]。

任何前沿技術領域的研究者都必須面對一個問題——如果這個東西做不出來怎麼辦?

從1972年進入愛丁堡大學算起,辛頓在深度學習的前線已經鏖戰了50年。2012年ImageNet挑戰賽舉辦時,他已經65歲了。很難想象他在漫長的時間裡面對學術界的種種質疑,需要消解多少自我懷疑與否定。

如今我們知道,2006年的辛頓已經堅持到了黎明前最後的黑暗,但他自己也許並不知道這一點,更不用說整個學術界和產業界。就像2007年iPhone發佈時,大多數人的反應可能和時任微軟CEO鮑爾默是一樣的:

目前,iPhone依然是世界上最貴的手機,而且沒有鍵盤

推動歷史的人,往往猜不到自己在歷史進程中的座標。

偉大之所以爲偉大,不是因爲其橫空出世時的驚豔,而是因爲它要在無邊黑暗中,忍受漫長的籍籍無名與不被理解。直到多年之後,人們才能順着這些標尺,感嘆那時羣星璀璨,天才輩出。

一個又一個科學研究的領域裡,無數的學者終其一生都不曾窺見希望的微光。因而從某種角度看,辛頓和其他深度學習推動者是幸運的,他們創造了偉大,間接推動了產業界一個又一個成功。

資本市場會給成功定一個公允的價格,歷史則記錄那些創造偉大的孤獨和汗水。

作者:李墨天

編輯:戴老闆

視覺設計:疏睿

責任編輯:李墨天

研究支持:陳彬、陳暢

參考文獻

[1] 16000臺電腦一起找貓,紐約時報[2] Fei-Fei Li's Quest to Make AI Better for Humanity,Wired[3] 李飛飛的TED演講[4] 21秒看盡ImageNet屠榜模型,60+模型架構同臺獻藝,機器之心[5] 卷積神經網絡的“封神之路”:一切始於AlexNet,新智元[6] 深度學習革命,凱德·梅茨[7] To Find AI Engineers, Google and Facebook Hire Their Professors,The Information[8] 深度學習三十年創新路,朱瓏[9] ImageNet這八年:李飛飛和她改變的AI世界,量子位[10] DEEP LEARNING: PREVIOUS AND PRESENT APPLICATIONS,Ramiro Vargas[11] Review of deep learning: concepts, CNN architectures, challenges, applications, future directions,Laith Alzubaidi等[12] Literature Review of Deep Learning Research Areas,Mutlu Yapıcı等[13] ChatGPT背後真正的英雄:OpenAI首席科學家Ilya Sutskever的信仰之躍,新智元[14] 10 years later, deep learning ‘revolution’ rages on, say AI pioneers Hinton, LeCun and Li,Venturebeat[15] From not working to neural networking,經濟學人[16] Huge “foundation models” are turbo-charging AI progress,經濟學人[17] 2012: A Breakthrough Year for Deep Learning,Bryan House[18] 深度學習:人工智能的“神奇魔杖”,安信證券[19] 深度學習算法發展:從多樣到統一 ,國金證券

明天下午,2024年諾貝爾獎還將公佈化學獎。果殼依然會跟你一起等待諾獎的結果,並在第一時間發佈最靠譜的諾獎解讀。

快來關注,不要錯過!

點擊圖片進入歷年諾貝爾獎解讀合集

本文經授權轉載自遠川研究所(ID:YuanChuanInstitution),如需二次轉載請聯繫原作者。歡迎轉發到朋友圈。