近日OpenAI推出GPT-4o!功能強大不只可以處理文字、音頻、圖像,還能讀出人類的情緒,甚至能即時和人類視訊通話,眾多功能將在這幾周陸續釋出。不只提供ChatGPT Plus付費用戶使用,也提供給免費版的用戶。經過《風傳媒》編輯實測,GPT-4o免費版已正式能使用,速度明顯比過往的速度快,對於自己不清楚的知識,還會「即時上網搜尋」。
GPT-4o是什麼?
GPT-4o中「o」的意思「omni」也就是全方位,除了文字處理的效能升級,也能處理音頻、圖像。在5/13發表日時,更展演了和GPT-4o視訊,要他敘述使用者的穿著、環境空間的裝潢都能準確地說出來,甚至還能給予打扮穿著上的建議。另外,也能解答數學題,即時口譯。
GPT-4o有哪些功能?
即時口譯
OpenAI測試者和GPT-4o表示他只會說英文,但是旁邊有只會說義大利文的朋友,請他聽到英文就立刻轉成義大利文,聽到義大利文就立刻口譯回英文,幾乎沒有等待時間的即時翻譯。
視訊對談
OpenAI測試者表示自己要去面試,請GPT-4o給予外觀建議。GPT-4o看到他頭髮很亂,就請他用手梳理頭髮,但是OpenAI測試者表示自己沒時間整理了,於是戴上漁夫帽想遮住,問GPT-4o這樣可以嗎?GPT-4o笑著回答不是很適合。對答過程都能感覺到OpenAI很有情緒的在回答,和真實朋友一樣。在與GPT-4o對談同時,還可以打斷它回應。
判斷人類情緒
OpenAI測試者表示,自己將上台做簡報,有些緊張,叫GPT-4o判讀他的呼吸。OpenAI測試者先是大聲又急促呼吸了幾聲,GPT-4o馬上判斷不對勁,就馬上開玩笑說「你不是吸塵器」,接者要他慢慢呼吸,或者數到四。接著OpenAI測試者馬上調整情緒,慢慢地呼吸,GPT-4o一聽到呼吸聲改變,就問他「那現在感受如何呢?」
圖像、文字、文本轉語音
除了上述「即時」、「人類反饋」兩大亮點,當然也有一些更貼近大家日常文書處理的功能,像是圖像、文字、文本轉語音等。
GPT-4o怎麼用?
付費版
如果是ChatGPT Plus用戶,可以直接切換成GPT-4o做使用。
免費版
免費版用戶無法自主切換,《風傳媒》編輯請手機裡的ChatGPT,切換到GPT-4o,他表示無法切換成特定版本。後續繼續問了幾個問題,他表示我已達GPT-4o的使用上限。這代表一件事情,就是編輯問的這幾個問題,他是使用GPT-4o這個版本做回應的。
GPT-4和GPT-4o差在哪?
GPT-4雖具備圖像辨識和文字語音轉換等功能,但OpenAI以往將這些功能分散在不同模型中,造成回應時間較長。而現在,GPT-4o將這些功能整合到一個模型中,稱為omnimodel(暫譯為「全能模型」),速度更快,反饋更具體。
有了GPT-4o,還要買ChatGPT Plus嗎?
如果是大量在使用ChatGPT者,訂閱制付費版的ChatGPT Plus仍有其必要,因為免費的版的GPT-4o使用額度非常的小。《風傳媒》編輯實測問了5、6個問題就達到每日上線,被要求9小時後才能再次使用。另外,GPT-4o上述功能將陸續開放,依照OpenAI過去對新功能的開放狀況,付費版應該仍能比免費版更快速、更全面的使用到GPT-4o的功能。
責任編輯/梁溶珈