人工智能教父Yoshua Bengio:我們正在創造比人類更強大的怪物
鞭牛士報道,10月11日消息,據雅虎財經報道,無論您認爲人工智能將拯救世界還是毀滅世界,毫無疑問,我們正處於一個充滿熱情的時刻。衆所周知,如果沒有 Yoshua Bengio,人工智能可能就不存在了。
60 歲的本吉奧被稱爲人工智能教父,是一位加拿大計算機科學家,他致力於神經網絡和深度學習算法的研究。他的開創性工作爲我們今天使用的人工智能模型開闢了道路,例如 OpenAI 的 ChatGPT 和 Anthropic 的 Claude。
「智能賦予權力,無論誰控制了這種權力——無論是人類水平還是更高——都將變得非常非常強大。」本吉奧在接受雅虎財經採訪時表示。「總的來說,技術被那些想要更多權力的人所利用:經濟主導地位、軍事主導地位、政治主導地位。因此,在我們創造可能以危險的方式集中權力的技術之前——我們需要非常小心。」
2018 年,本吉奧與兩位同事——前谷歌 ( GOOG ) 副總裁傑弗裡·辛頓(2024 年諾貝爾物理學獎得主)和 Meta ( META ) 首席人工智能科學家揚·勒昆共同獲得了圖靈獎(有計算界諾貝爾獎之稱)。2022 年,本吉奧成爲全球被引用次數最多的計算機科學家。《時代》雜誌將他評選爲全球100 位最具影響力人物之一。
儘管 Bengio 幫助發明了這項技術,但他現在已成爲人工智能領域的謹慎之聲。這種謹慎是隨着投資者繼續對該領域表現出極大的熱情而產生的——今年人工智能的股價創下了新高。
例如,人工智能芯片寵兒 Nvidia(NVDA)的股價今年迄今已上漲 162%,而標準普爾 500 指數的漲幅爲 21%。
根據雅虎財經的數據,該公司目前的估值高達 3.25 萬億美元,略微落後於蘋果 ( AAPL ),成爲全球最有價值公司。
雅虎財經採訪了 Bengio,談論人工智能可能帶來的威脅以及哪些科技公司做得對。
爲簡潔起見,我們對採訪內容進行了編輯。
爲什麼我們應該關注人類水平的智能?
「如果這些技術落入壞人之手,無論這意味着什麼,都可能非常危險。這些工具很快就會幫助恐怖分子,它們也可能幫助那些想要摧毀我們民主的國家行爲者。還有許多科學家指出的問題,也就是我們現在訓練它們的方式——我們不清楚如何避免這些系統變得自主並有自己的保護目標,我們可能會失去對這些系統的控制。所以我們可能正在走上一條創造比我們更強大的怪物的道路。」
OpenAI、Meta、谷歌、亞馬遜——哪家大型人工智能公司做得對?
「從道德上講,我認爲表現最好的公司是 Anthropic(主要投資者包括亞馬遜和谷歌)。但我認爲他們都有偏見,因爲在經濟結構中,他們的生存取決於成爲領先公司之一,理想情況下是成爲第一個實現 AGI 的公司。這意味着一場競賽——企業之間的軍備競賽,公共安全很可能是失敗的目標。
Anthropic 發出了很多信號,表明他們非常關心如何避免災難性後果。他們是第一個提出安全政策的公司,承諾如果人工智能最終擁有可能造成危險的能力,他們就會停止這種努力。他們也是唯一支持SB 1047 的公司,與 Elon Musk 一樣。換句話說,他們說“是的,經過一些改進,我們同意提高安全程序和結果的透明度,並承擔責任,如果我們造成重大傷害。」
您是否考慮過 Nvidia 等人工智能股票的大幅上漲?
「我認爲可以確定的是長期的發展軌跡。所以如果你長期堅持,這是一個相當安全的選擇,除非我們無法保護公衆……[那麼]反應可能是一切都會崩潰,對吧?要麼是因爲社會普遍反對人工智能,要麼是因爲真正災難性的事情發生了,我們的經濟結構崩潰了。
不管怎樣,這對投資者來說都是壞消息。所以我認爲,如果投資者夠聰明的話,他們應該明白我們需要謹慎行事,避免犯下可能損害我們共同未來的錯誤和災難。」
對人工智能芯片競賽的看法?
「我認爲芯片顯然正在成爲難題的一個重要部分,當然,這也是一個瓶頸。隨着各種事件的發生和我可以預見的未來幾年的科學進步,對大量計算的需求很可能不會消失,因此擁有高端人工智能芯片功能將具有戰略價值——供應鏈中的所有步驟都很重要。目前很少有公司能夠做到這一點,所以我預計會看到更多的投資,並希望實現多元化。」
您如何看待 Salesforce 到 2026 年推出 10 億自主代理?
「自主性是這些公司的目標之一,從經濟和商業角度來看,這是一個巨大的突破,因爲它將開闢大量應用。想想所有的個人助理應用。它需要比目前最先進的系統所能提供的更多的自主性。所以他們追求這樣的目標也是可以理解的。Salesforce(CRM)認爲他們能在兩年內實現這一目標,這讓我很擔心。我們需要在實現這一目標之前做好政府和技術方面的準備。」
紐森州長否決了加州的 SB 1047 ——這是一個錯誤嗎?
「他給出的理由讓我聽不懂,比如不僅要監管大型系統,還要監管所有小型系統……事情可能會迅速發展——我們討論過幾年。也許即使可能性很小,比如 10% [災難發生的可能性],我們也需要做好準備。我們需要制定法規。我們需要讓公司已經開始記錄他們正在做的事情,並且要讓整個行業保持一致。
另一件事是這些公司擔心訴訟。我與很多公司進行了交談,但已經有了侵權法,因此如果它們造成損害,隨時都有可能提起訴訟。而該法案在責任方面所做的就是縮小訴訟範圍……有 10 個條件,你需要滿足所有這些條件,法律才能支持訴訟。所以我認爲這實際上是有幫助的。但意識形態上存在着對任何參與的抵制——任何與現狀不符的事情,任何國家對這些人工智能實驗室事務的更多幹預。」