“人工智能讓世界變得更愚蠢”?專家警告AI炒作“很快就會破滅”

參考消息網8月14日報道 據德國《商報》網站7月15日報道,現年54歲的認知科學家加里·馬庫斯是人工智能(AI)圈子裡最具爭議的人物之一。圍繞所謂的大型語言模型的能力,馬庫斯與開放人工智能研究中心(OpenAI)首席執行官薩姆·奧爾特曼以及特斯拉首席執行官埃隆·馬斯克爭論不休。奧爾特曼和馬斯克預計,人工智能將很快發展出類人的能力。

馬庫斯卻看到了另一種危險:他認爲,新的人工智能模型只是一場炒作,“很快就會破滅”。

《商報》記者問:馬庫斯先生,您可能是最著名的OpenAI批評者。奧爾特曼公司的哪一點讓您不滿?

馬庫斯答:我並不反對OpenAI或奧爾特曼本人。我反對的是虛假承諾。

問:虛假承諾是指?

答:OpenAI宣佈,其使命是開發能造福全人類的通用人工智能。人們可以向它提出任何問題,它會理性地給出正確答案。但實際上,OpenAI的軟件既不安全也不可靠,且忽視了公衆利益。

問:奧爾特曼說,OpenAI離實現通用人工智能可能只差一兩次突破。

答:我認爲,這是炒作和無稽之談。

問:爲什麼?

答:看看新模型GPT-4o,我認爲它是構建GPT-5的一次失敗嘗試。OpenAI曾多次暗示,即將推出GPT-5,然後通用人工智能就會到來。事實卻是,人工智能的發展速度最近一直在放緩。OpenAI走錯了方向。

問:走錯方向?隨着聊天機器人ChatGPT的推出,OpenAI引發了前所未有的人工智能熱潮。

答:ChatGPT或許很受歡迎,但並不可信。我對精明的企業家沒什麼意見,但必須指出當下流行的人工智能模型的技術侷限性。只有克服這些侷限性,人工智能的發展才能進入值得信賴的軌道。

問:具體是什麼讓您不安?

答:我不認爲大型語言模型(生成式人工智能的一個子集)真的是一個好的解決方案,儘管它們很受歡迎。它們包藏了太多風險,其中最嚴重的是錯誤信息,另一個則是幻覺。

問:也就是說,這些模型會編造答案和結果。

答:正是。什麼是大型語言模型?它是一種概率模型,可以計算出句子中最有可能出現的下一個詞。其結果是,系統擁有驚人的模仿能力,但並不真正聰明。它們或許可以很好地解答80%的問題,卻對剩下的20%幾乎束手無策。人們可以和聊天機器人談論幾乎任何事情。有時答案是對的,有時是錯的。但我們無法預測何時會出錯,這是一個大問題。

問:人類不會犯錯嗎?

答:人類當然會犯錯,但人的錯誤與機器的錯誤截然不同。此外,人類在某些領域非常出色,當今的機器則不然。以人工智能輔助駕駛爲例:我們看到,很多事故都是由人類駕駛員高估機器的能力造成的。他們看到機器正確駕駛了45分鐘,於是就認爲“太好了,我能信任它”。從統計學角度看,這種想法很愚蠢。一輛在95%的場景中自動駕駛的汽車,會在20種情況中的某一種中做出錯誤決定。這可能會要了我們的命。這是不可接受的。

問:馬斯克認爲,更多的數據將完善自動駕駛。OpenAI也提出,數據越多,語言模型越強。

答:這是誤入歧途。我們看到,新推出的模型變體帶來的回報逐漸減少。進步速度放緩。我們不會因爲模型越來越大而實現通用人工智能。

問:您怎麼能如此確定呢?

答:沒有什麼是確定的。但在我看來,用越來越多的數據“餵養”模型,從而實現通用人工智能,這種可能性微乎其微。一方面,根本沒有足夠的好數據。OpenAI已經搜刮了互聯網上的人類文本,現在又在轉錄優兔(YouTube)視頻,但仍然不夠。另一方面,目前還不清楚更多的文本是否真的有助於人工智能的發展。就拿我的孩子們來說:他們比任何人工智能都要聰明,但他們並沒有翻閱整個互聯網。爲什麼?因爲他們能更高效地分析數據,並從更多渠道獲取數據:通過眼睛、耳朵和感覺從現實生活獲取數據。人類構建了世界運行的因果模型,但生成式人工智能做不到這一點,所以我們無法真正信任它。

問:許多人都希望用所謂的合成數據,即人工智能生成的數據,來訓練他們的模型。

答:這是主流人工智能抓住的下一根救命稻草,其背後的想法非常糟糕。人工智能系統會產出滿是幻覺的糟糕數據,然後它們又被用來訓練其他系統。結果就是,越來越多的虛假信息污染了互聯網。人類已經在用生成式人工智能來快速炮製不可靠的產品,例如未經研究、未經覈查的傳記。這樣一來,人工智能不會讓世界變得更聰明,而是變得更愚蠢。

問:ChatGPT通過了圖靈測試。這是數學家艾倫·圖靈在1950年提出的一項測試:如果人類認爲一臺機器的回答是人類的回答,那麼這臺機器就是智能的。

答:拜託,圖靈測試太可怕了。也許這曾是個偉大的想法,但它已經有74年曆史了,經不起時間的考驗。圖靈測試更適用於驗證人類有多麼容易上當受騙。我們現在就能建立一個系統,在短期內騙過一個沒有受過心理學或人工智能訓練的天真的人。但這並不能證明什麼。圖靈測試的確提出了一個正確的問題:什麼是智能?但我們仍未找到答案。