王道維觀點:當Google遇上ChatGPT——從語言理解的心理面向看AI對話機器人的影響

2023-02-11 05:50

? 人氣

[3] 雖然我們都知道許多動物可以透過聲音、氣味或運動方式來傳達簡單的訊息,但那些都完全沒有辦法重新組成本來所指涉的物體/事件以外的意義,也就是沒有多元使用上的彈性,與人類的語言表達能力有本質上的鉅大差別。

[啟動LINE推播] 每日重大新聞通知

[4] 關於比較搜尋引擎和語言模型的應用,以及Google與Microsoft之間可能的競爭,筆者覺得以下這篇文章寫得蠻好的,也可以因此更多了解這些技術的特性與侷限,提供有興趣的讀者參考。〈微軟vsGoogle:語言模型會不會壓倒搜尋引擎?〉,36氪(2/1/2023) 。

[5] 有一些比較偏向科普類的技術說明文章,可參考例如:〈ChatGPT 究竟如何煉成?台大教授李宏毅提可能的訓練步驟〉,Inside (12/08/2022)。〈深入淺出,解析ChatGPT背後的工作原理〉,幫趣 (1/6/2023)。

[6] 關於AI如何處理人類語言的工作,統稱為「自然語言處理」(Natural Language Processing),可以說是當前最富挑戰性也最有未來性的AI應用。對這主題有興趣做一些初淺而非技術面深入了解的讀者,可以參考筆者所曾經拍攝的一段影片,「自然語言處理簡介」,屬於國科會人文社會科學研究中心所支持拍攝的一系列「人文社會AI導論課程」的第7集

[7] 關於人工配合訓練ChatGPT的部分,可以參考以下稍微詳細一些的說明:〈ChatGPT 為何能像人類對談?台大資工陳縕儂教授揭 AI 模型背後的訓練原理〉,Inside (12/26/2022)。

[8] 李建興,〈OpenAI改進GPT-3使其更能聽懂人類指示,並減少輸出有毒內容〉,iThome (1/28/2022)。

[9]〈ChatGPT多聰明?實測能通過美名校商學院、法學院考試〉,經濟日報 (1/29/2023)。

[10] 例如這篇報導所說,〈科技巨頭小心翼翼的對待AI,結果ChatGPT突然衝了出來,逼大公司做出反應〉,36氪(2/3/2023) 。

[11] 舉例而言,筆者有朋友詢問某個法律相關的問題,GPT所給出看似不錯的回應中其實號稱來源是某個法律條文,但那卻是它自己所創造,其實從不存在的文字。這與簡單的數學題一樣,可以說是人類無法原諒的低級錯誤。

[12] 一般的認知心理學會以Miller(1973)所建議的五個層次來組成語言,分別是語音、語法、詞彙或語意、概念、信念。但在這裡筆者更著重於將最後一個信念(belief)細分為知識與洞見,代表不同強度的可信賴性,也是AI機器人比較無法呈現的部分。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章