重磅!OpenAI發佈GPT-4 Turbo,史上最強ChatGPT來了!

微軟首席執行官Satya Nadella出席大會

11月7日凌晨,OpenAI在美國舊金山舉辦首屆開發者大會,與來自全球的開發者、企業、合作伙伴分享了最新產品。微軟首席執行官Satya Nadella作爲特邀嘉賓出席了此次盛會。

會上,OpenAI發佈了128K 上下文的GPT-4 Turbo、自定義GPT、DALL·E 3 API、全新Assistants API、視覺GPT-4 Turbo、JSON模式、GPT商店、ChatGPT Plus訓練數據更新等一系列重磅內容。

其中,GPT-4 Turbo是本次大會的主打產品之一,成爲OpenAI史上最強的ChatGPT。

下面「AIGC開放社區」根據OpenAI官網的正式發佈,爲大家解讀首屆開發者大會上的全部重要內容。

GPT-4 Turbo

早在今年3月OpenAI首次發佈了GPT-4,並在7月向所有開發者開放了使用權限。現在,OpenAI發佈了比前一代更強的——GPT-4 Turbo。(詳細說明文檔:https://platform.openai.com/docs/models)

所有付費開發者可以通過在API中發送gpt-4-1106-preview來嘗試GPT-4 Turbo。OpenAI將在未來幾周內發佈穩定的準生產模型。

OpenAI聯合創始人兼首席執行官介紹GPT-4 Turbo

GPT-4 Turbo具有128K上下文,相當於可一次性輸入300多頁文本內容10萬漢字;訓練數據知識截止至2023年4月;價格方面,GPT-4 Turbo與GPT-4相比,輸入便宜3倍,輸出便宜2倍。

GPT-4 Turbo還對函數調用和指令、JSON模式進行了調優。

函數調用更新:OpenAI發佈了多項函數改進,包括在單個消息中調用多個函數的能力,用戶可以發送一次請求多個操作的消息,例如“打開車窗並關閉空調”,這在以前需要與模型進行多次往返。

OpenAI還改進了函數調用的準確性,GPT-4 Turbo更有可能返回正確的函數參數。

指令遵循和JSON模式:與其他模型相比,GPT-4 Turbo在需要仔細遵循指令的任務上表現更好,例如“始終以XML格式響應”。

支持OpenAI最新的JSON模式,該模式確保模型將響應有效的JSON。(JSON模式介紹:https://platform.openai.com/docs/guides/text-generation/json-mode)

新的API參數response_format使模型能夠限制其輸出以生成語法正確的JSON對象。JSON模式對於開發人員在函數調用之外,在聊天完成 API 中生成 JSON 非常有用。

自定義GPT

OpenAI推出了自定義GPT版本,可以幫助金融、醫療、法律、教育、日常工作、幼兒教育等任何行業,例如,讓ChatGPT教孩子如何學習3年級寫作;讓ChatGPT回答特定的技術內容等,打造獨屬自己的ChatGPT。

目前,OpenAI已經內置了很多定義GPT版本,用戶可以直接選擇使用或者自行構建。

用戶在構建自定義GPT時無需任何代碼,全程支持可視化點擊操作,只需要給ChatGPT對話指令或額外的知識數據,然後選擇是否需要網絡搜索、數據分析和圖片生成等多模態功能即可。

用戶構建的自定義GPT助手可以共享給其他人使用,目前該功能面向ChatGPT Plus和企業版用戶。

可以將GPT助手集成在其他應用中:開發人員可以通過向 GPT 提供一個或多個 API 來定義自定義操作。

和插件一樣,允許 自定義GPT 集成外部數據或與現實世界交互。將 GPT 連接到數據庫,將其集成在電子郵件或成爲購物助手。

GPT商店:本月晚些時候,OpenAI將會推出GPT商店功能,主要用於分享用戶構建的自定義GPT助手,例如,法律助手、家庭常識助手、客服助手等。

一旦你構建的GPT助手審覈通過進入GPT商店,就可以被其他人搜索到並且可能會登上排行榜。這意味着,用戶可以通過構建自定義GPT助手賺錢了,就像蘋果的APP商店一樣。

ChatGPT Plus訓練數據更新:現在,ChatGPT Plus的訓練數據截至 2023 年 4 月,可以回答更多最新的內容了。

此外,用戶無需進行頻繁的DALL·E-3、網絡瀏覽和高級數據分析的功能切換了ChatGPT將自行完成。支持用戶上傳文件,例如PDF、txt等,並基於文件內容進行提問、搜索。

帶視覺功能的GPT-4 Turbo

GPT-4 Turbo可以接受圖像作爲聊天完成API中的輸入,從而實現生成標題、詳細分析現實世界圖像以及閱讀帶有圖片的文檔等。例如,BeMyEyes已經使用這項技術幫助盲人或弱視人士完成日常任務。

開發者可以通過在API中使用gpt-4-vision-preview來嘗試此功能。

OpenAI計劃在GPT-4 Turbo模型正式發佈時,將視覺功能集成在裡面。定價取決於輸入圖像的大小。

例如,將1080×1080像素的圖像傳遞給GPT-4 Turbo的成本爲0.00765美元。

DALL·E 3 API

現在,開發人員可以通過API將文本生成圖像模型DALL·E 3 直接集成到應用程序和產品中,價格從每張圖像0.04美元起。(DALL·E 3介紹地址:https://platform.openai.com/docs/guides/images?context=node)

Snap、可口可樂和Shutterstock等公司已經開始在業務中使用DALL·E 3。

與之前版本不同的是,DALL·E 3 API集成了內置的內容審覈功能,以幫助開發者防止其應用程序被濫用。

Assistants API

OpenAI發佈了Assistants API,將允許開發者在自己的應用程序中構建 AI 助手,包括指令,可以利用模型、工具和知識來響應用戶查詢。(Assistants API詳細地址:https://platform.openai.com/docs/assistants/overview)

目前Assistants API支持三種類型的工具:代碼解釋器、檢索和函數調用。未來,OpenAI計劃發佈更多構建的工具,並允許開發者在其平臺上提供自己的工具。

安全方面,開發者傳遞到 OpenAI API 的數據和文件永遠不會用於訓練模型,可以隨時隨地刪除數據。

更低的價格

OpenAI再次下調了模型的價格,以幫助更多的開發者、企業節省成本。

GPT-4 Turbo輸入代幣比GPT-4便宜3倍,爲0.01美元;輸出代幣便宜2倍,爲0.03 美元。

最新款GPT-3.5 Turbo 輸入代幣比之前的16K型號便宜3倍,價格爲 0.001 美元;輸出代幣便宜 2倍,價格爲 0.002 美元。

之前使用 GPT-3.5 Turbo 4K 的開發人員受益於輸入代幣減少33%,價格爲 0.001 美元。

經過微調的 GPT-3.5Turbo 4K 模型輸入代幣減少了 4 倍,價格爲 0.003 美元,輸出代幣便宜了 2.7 倍,價格爲0.006 美元。

本文素材來源OpenAI官網,如有侵權請聯繫刪除