王道維觀點:當Google遇上ChatGPT——從語言理解的心理面向看AI對話機器人的影響

2023-02-11 05:50

? 人氣

但是ChatGPT這個對話式的AI模型之所以能有這樣的影響力,主要是因為她比以前所有的AI模型更有效的掌握自然語言(文字)在表達方式與其相關內容的平衡。人類文化中,語言文字有個非常重要的特色:他們一定都是由有限的基本單位(如音節、文字或字母)所組成,只需有些原則性的連接方式(也就文法),就可以類似積木一般豐富地表達幾乎人類思想範圍內的各種事物或感受,是最接近人類大腦思想的表徵(representation)方式,也是其他動物所沒有的[3]。雖然生活中仍有些是我們難以用語言文字所描述的情緒或是鍵,但是透過語言文字巧妙的運用,還是可以有引發「共感」的能力 (例如「大珠小珠落玉盤」這種類比方式),將本來難以言喻的感受傳達給遙遠或未來的另一位讀者體會。

[啟動LINE推播] 每日重大新聞通知

從這個角度我們就能明白為何Google的搜尋與ChatGPT對話機器人的成功其實有相當的類似性:因為他們非常好的掌握到人類語言文字表達的習慣,計算出最相關的文字資料,並將之排序或整合,令人幾乎不必跨越任何技術門檻就能直接享受到其成果。差別只是前者將目標訂在找到最相關的網頁,而後者的目標是產生最相關的文字組合。而文字符號本身幾乎可以表徵人類思想的所有面向,因此也就輕易跨越了領域的疆界,創造了幾乎無限可能的應用想像。所以可以簡單地說,掌握了語言工具就掌握了價值取捨方式,也自然創造跨領域的應用範圍。所以筆者認為這個語言的共通性才是兩者成功的核心要素。[4]

結合流利程度與回答結構的訓練方式

但是以上的說明仍須要回答一個更核心的問題,ChatGPT比起之前就出現過的對話機器人(如Google的LaMDA或微軟的小冰等),又有哪些特別的能耐而可以造成這樣的令人驚豔的成果?這部分涉及到AI對於自然語言處理的技術內涵,但我們可以簡單的從三大部分來說明[5]。

1. 大型語言模型:首先ChatGPT是源自GPT-3的大型語言模型(Large Language Model, LLM)而作更精緻訓練與應用。也就是說它是透過數千億字的海量資料來作訓練,可以調整的參數高達1750億個。用這些參數來模擬每個字與前後文其他字的關係。最後再根據提問者的問題或之前的回覆來計算對應的各種文字組合機率,將整體機率最高的結果作為「答案」來提供[6]。

由於GPT-3訓練時所用的文字資料非常多,所以它可以回答的相當流利不呆板,彷彿是真的有個人類在背後回應。事實上,如果使用者直接按「重新產生」鍵就會看到其他的「回答」,說不定覺得更好或更差。這就如同使用google搜尋都會得到許多網址類似,第一筆是它計算出最可能相關的,但是我們要的資訊可能是在後面幾筆或第二頁以後才找到。因此可知這樣AI其實無法保證這些內容是正確或適當的,只能說是根據其訓練資料而計算出可能的文字組合方式,提供使用者參考。但是這樣的技術其實也早就被過往公開發表過的對話機器人所採用,也都有一定的成果,只是不同團隊所著重的回應方式不同。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章