天天看點

OpenAI下周開始向ChatGPT Plus使用者推出Alpha版GPT-4o語音模式

IT之家 7 月 26 日消息,OpenAI 首席執行官山姆・阿爾特曼(Sam Altman)今天回複網友提問,表示将于下周面向 ChatGPT Plus 使用者,開放 Alpha 版本 GPT-4o 的語音模式(Voice Mode),實作無縫聊天。

OpenAI下周開始向ChatGPT Plus使用者推出Alpha版GPT-4o語音模式
OpenAI下周開始向ChatGPT Plus使用者推出Alpha版GPT-4o語音模式
OpenAI下周開始向ChatGPT Plus使用者推出Alpha版GPT-4o語音模式

IT之家今年 5 月報道,OpenAI 首席技術官穆裡・穆拉蒂(Muri Murati)在演講中表示:

在 GPT-4o 中,我們訓練了跨文本、視覺和音頻的端到端全新統一模型,這意味着所有輸入和輸出都由同一個神經網絡處理。

由于 GPT-4o 是我們第一個結合所有這些模式的模型,是以我們在探索該模型的功能及其局限性方面仍處于起步階段。

OpenAI 公司原計劃今年 6 月底,邀請一小部分 ChatGPT Plus 使用者測試 GPT-4o 語音模式,但官方在 6 月宣布推遲,表示需要更多時間打磨該模型,提高該模型檢測和拒絕某些内容的能力。

根據此前曝光的資訊,GPT-3.5 模型的平均語音回報延遲為 2.8 秒,而 GPT-4 模型的延遲為 5.4 秒,是以在語音交流方面不太優秀,而即将推出的 GPT-4o 可以極大地縮短延遲時間,近乎無縫對話。

繼續閱讀