ChatGPT推語音對話模式能以聲音進行互動 暫開放付費用戶測試

今年在5月中旬公佈GPT-4o人工智慧模型時,當時提及能以自然聲音進行互動的語音對話模式,目前已經開始向部分ChatGPT Plus付費用戶提供alpha版本測試,預計會在今年秋季向所有ChatGPT Plus用戶提供使用。

依照OpenAI說明,此語音對話模式透過超過100個外部紅隊 (Red Team)以45種語言進行測試,確認使用上不會有安全等爭議問題,而目前提供語音選項包含「Cove」、「Juniper」、「Breeze」與「Ember」,不包含先前被質疑與演員史嘉蕾喬韓森 (Scarlett Johansson)聲音相仿的「Sky」。

在進一步解說中,Open AI表示在GPT-4o推出前的語音對話模式平均延遲,在GPT-3.5約爲2.8秒,在GPT-4則約爲5.4秒,主要是透過三個獨立模型運作構成,其中包含將音訊轉爲文字,由GPT-3.5或GPT-4分析文字、做出迴應,再將回應文字轉爲語音念出,而此次推出的GPT-4o則是透過單一模型即可完成音訊轉文字、文字分析與文字轉音訊三個流程,因此能以相比GPT-4 Turbo約2倍快速度完成運作。

由於花費更短時間完成過往需要三個模型才能完成的工作流程,因此代表GPT-4o將能進一步分析使用者所發出語調、表情,進而判斷背後所代表情感,例如判斷使用者當下情緒是否開心,或是悲傷難過等。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》