OpenAI 全力讓人工智能的運作更趨完美
OpenAI 做了一件出乎所有人意料的事:它放慢了給出答案的速度,以期能回答正確。
新的 OpenAI o1 預覽模型 是針對 OpenAI 所稱的難題而設計的——比如科學、編碼和數學等學科中的複雜任務。
我喜歡這個想法,即那些把人工智能弄得如此糟糕的公司之一,實際上正在做些改進它的事。
在我們看來,這好像魔法一般,因爲我們習慣從不同的角度看待軟件輸出。當它表現出類人的樣子時,它看起來很奇怪和具有未來感,這真的很酷。每個人都想成爲託尼·斯塔克,並與他們的電腦對話。
不幸的是,急於發佈這種看似具有會話能力的酷炫人工智能類型,凸顯了它可能有多糟糕。一些公司將其稱爲幻覺(可惜不是有趣的那種),但不管給它貼上何種標籤,我們從人工智能那裡得到的答案往往是滑稽的錯誤,甚至是以更令人擔憂的方式錯誤。
OpenAI 稱,其GPT-4 模型在國際數學奧林匹克競賽的試題中,僅能答對 13%。
這或許比大多數人的得分高些,但就數學而言,計算機理應能夠得分更準確。新的 OpenAI o1 預覽版能夠答對 83%的題目。這是一個巨大的飛躍,突顯了新模型的有效性。
值得慶幸的是,OpenAI 名不虛傳,並且分享了這些模型是怎樣“思考”的。在一篇有關新模型推理能力的文章裡,您可以滾動至“思維鏈”部分,來了解這個過程。我覺得“安全”部分特別有意思,因爲該模型採用了一些安全舉措,以確保它不會像 GPT-4 模型那樣告知您如何自制砷(千萬別嘗試自制砷)。這將會挫敗當前用於使對話式 AI 模型在完成後打破自身規則的那些技巧。
總的來說,該行業需要這個。
我的同事兼 Android Central 執行編輯德雷克·李(Derrek Lee)指出,有趣的是,當我們想要即時信息時,OpenAI 願意稍微放慢速度,讓人工智能“思考”從而爲我們提供更優的答案。他說得完全正確。這感覺就像是一家科技公司在做正確的事,即使結果並非最佳。
我認爲這不會在一夜之間產生任何效果,而且我也不確信這裡存在純粹的利他主義目標在起作用。OpenAI 希望其新的大型語言模型在當前模型表現欠佳的任務上表現更出色。一個附帶的效果是更安全、更出色的對話式人工智能,它能更頻繁地給出正確答案。我願意接受這種權衡,並且我期待谷歌也能做類似的事情,以表明它也明白人工智能需要變得更好。
在有人想出更新穎且更賺錢的東西之前,人工智能不會消失。公司倒不如致力於把它做得儘可能出色。