王道維觀點:當Google遇上ChatGPT——從語言理解的心理面向看AI對話機器人的影響

2023-02-11 05:50

? 人氣

語言文字不只是積木:語言建構的心理層次

如同前面所提及的積木比喻,這些大量的文字如同積木一般被AI重新組合,看似創造出不同精美的「作品」(也就是我們看到的回答)。但其實每一個「作品」對它來說都只有機率高低的不同,並不代表能前後邏輯一致的對應外在真實世界,甚至也無法保證在不應該犯錯的最基本運算或正確知識上能夠安全通過[11],也沒有任何價值評斷的差異。而所謂的機率計算,則是透過這些現存的數萬億的文字訓練資料所提取出來:簡而言之,如果所提供的資料大部分是網路用語,那這類AI生成的文字很大部分可能會與網路文化的語言類似;如果大部分是某些專業知識領域的文字,它也會更好的處理那些領域的問題。當然,這個問題反過來也成立,也就是說對於某些比較沒有放在其訓練資料的內容,回答起來就會顯得隔靴搔癢,徒有某種樣子而無實質內涵。

[啟動LINE推播] 每日重大新聞通知

因此我們在更深入思想這些語言文字的生成與理解時,就會逐漸看見以下的幾個不同層次的概念需要釐清,組成我們對於現有知識結構的理解[12]:字詞(word)、信息(information)、意見(opinion)、知識(knowledge)與洞見(Insight)。以下將簡略說明,為何這類AI機器人大部分是在提供意見的層次,夾雜許多不見得能完全相信但也可能的確有用處的訊息。其中當然有一部份因為可以回應真實世界而能夠成為某種知識,但很難說因此有任何洞見來幫助使用者面對困難的問題。其中最主要的原因是對使用者而言是否在心理層面感到有說服力,而這個說服力的感受很多時候卻不一定來自於真實世界的驗證而是字詞表達的方式。這應該會是未來AI發展與人類互動更值得注意的方向[13]。

1. 字詞:如果把語言文字當成積木,它最小的單位如字詞,本身其實只是一種符號,通常是用來表達另一些概念對象,具體的例如像蘋果、飛機、貓狗等等,或是抽象的如快樂、法律、貧窮等等。從現代語言學的角度來看,某個特定的符號和其所特定所指的概念對象之間的聯繫不是絕對的,而是有約定俗成的彈性。例如我們眼強那顆紅色拳頭大的水果,中文稱作蘋果,英文稱作Apple或是日文的りんご,其實都沒有關係。唯一有關係的是使用這個字詞的人是否是在相關的文化環境中使用,以至於可以與其他人正確的溝通,不會誤會彼此的意思。

2. 信息因此我們會發現只有單字詞是無法正確代表語言,還必須放在正確的前後文(context)環境中,才有可能開始發揮效果,描述某些外在事物或內心感受或理念。而前述的大型語言模型也就是根據這個前後文來計算出的複雜機率關係:利用前面出現的幾十個字詞推算後面將會出現的字詞,有助於形成一個通順的文句,例如「天空看起來變得陰暗了」。這樣的語言表達也可以說在某個程度上描寫出一段不同事物(天空、看起來、變得、陰暗)彼此之間的關係,開始指涉某些事件發生的過程或內涵。這樣的訊息是帶有描述成分,也當然就可能成為可以評價正確性或合適性與否的內容。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章