OpenAI承認GPT-4變懶:暫時無法修復

對於越來越嚴重的GPT-4偷懶問題,OpenAI正式迴應了。

還是用的ChatGPT賬號。

也就是短時間內還修復不好了。

然而網友並不理解,“一遍一遍使用同一個模型,又不會改變文件”。

ChatGPT賬號澄清:

更多網友反饋,趕快修復吧,一天比一天更糟糕了。

GPT-4偷懶,網友花式自救

此前很多網友反饋,自11月6日OpenAI開發者日更新後,GPT-4就有了偷懶的毛病,代碼任務尤其嚴重。

比如要求用別的語言改寫代碼,結果GPT-4只改了個開頭,主體內容用註釋省略。

對於大家工作學習生活中越來越離不開的AI助手,官方修復不了,網友也只能發揮創造力自救。

比較誇張的有“我沒有手指”大法,來一個道德綁架。

GPT-4現在寫代碼愛省略,代碼塊中間用文字描述斷開,人類就需要多次複製粘貼,再手動補全,很麻煩。

開發者Denis Shiryaev想出的辦法是,告訴AI“請輸出完整代碼,我沒有手指,操作不方便”成功獲得完整代碼。

還有網友利用“金錢”來誘惑它,並用API做了詳細的實驗。

提示詞中加上“我會給你200美元小費”,回覆長度增加了11%。

如果只給20美元,那就只增加6%。

如果明示“我不會給小費”,甚至還會減少-2%

還有人提出一個猜想,不會是ChatGPT知道現在已經是年底,人類通常都會把更大的項目推遲到新年了吧?

這理論看似離譜,但細想也不是毫無道理。

如果要求ChatGPT說出自己的系統提示詞,裡面確實會有當前日期。

當然,對於這個問題也有一些正經的學術討論。

比如7月份斯坦福和UC伯克利團隊,就探究了ChatGPT的行爲是如何隨時間變化的。

發現GPT-4遵循用戶指令的能力隨着時間的推移而下降的證據,指出對大模型持續檢測的必要性。

有人提出可能是溫度(temperature)設置造成的,對此,清華大學計算機系教授馬少平給出了詳細解釋。

也有人發現更奇怪的現象,也就是當temperature=0時,GPT-4的行爲依然不是確定的。

這通常會被歸因於浮點運算的誤差,但他通過實驗提出新的假設:GPT-4中的稀疏MoE架構造成的。

早期的GPT-3 API各個版本行爲比較確定,GPT-4對同一個問題的30個答案中,平均有11.67個不一樣的答案,當輸出答案較長時隨機性更大。

最後,在這個問題被修復之前,綜合各種正經不正經的技巧,使用ChatGPT的正確姿勢是什麼?

a16z合夥人Justine Moore給了個總結:

參考鏈接:[1]https://twitter.com/ChatGPTapp/status/1732979491071549792[2]https://twitter.com/literallydenis/status/1724909799593120044[3]https://mashable.com/article/chatgpt-longer-responses-tips?taid=656feabb4faaf00001129343[4]https://weibo.com/1929644930/NwbPFyTCZ[5]https://152334h.github.io/blog/non-determinism-in-gpt-4/[6]https://twitter.com/venturetwins/status/1732817594762338597