王道維觀點:從生成式AI的「虛擬知識」看後知識時代的來臨

2023-03-31 05:50

? 人氣

表二:語言理解的五種層次與其簡要比較。本文所提的「虛擬知識」可是為誡於「意見」與「(實體)知識」之間的層次。(作者提供)
表二:語言理解的五種層次與其簡要比較。本文所提的「虛擬知識」可是為誡於「意見」與「(實體)知識」之間的層次。(作者提供)

筆者認為ChatGPT大部分的輸出文字只能屬於「意見」層次,只有少部分可以透過與外界事實的確認而肯定到達了「知識」的程度。但是在絕大部分的使用情境下,使用者所得到的內容是即時出現的,所以往往無法立即透過外界獨立的資訊來驗證這些意見的可靠性。

[啟動LINE推播] 每日重大新聞通知

但是反過來說,使用者如果在多次多方的詢問中(因為文字生成的速度夠快,同一類問題可以問很多次或使用更好的提示詞(prompt)來問得更深入具體),AI可能給出主要概念相當一致的回答結果,並且沒有明顯重要的錯誤,那就可以合理歸類為筆者所謂的「虛擬知識」。這樣的「虛擬知識」當然可能有錯誤,但至少可以很快得到,而且可能比實體知識或網路訊息更客製化(因應使用者的需求),讓使用者可以利用其內容作進一步的探索或其他相關決定。

2. 更加個人化與實用化

由於大型語言模型是根據輸入的文字與訓練資料計算相關性,找出機率最大的文字來輸出,所以他所提供的「答案」其實是與題目的詢問方式密切相關,並不是獨立於使用者的命題。不同的提問方式也可以被視為一種提示工程(prompt engineering),相當於用人類的自然語言來寫程式,讓ChatGPT這類語言模型可以更精準正確的回應[30]。

以圖五的問題為例(延續圖四的問題),若筆者再加入一些個人性的條件,就可以更精確地針對某個個人情境來得到具體可用的知識。

錨定效應例子(作者提供)
錨定效應例子(作者提供)
圖五:筆者以錨定效應的其他個人性應用來引到ChatGPT做更具體的回應。這些「意見」不見得是具體實踐過而得到確認的知識,但是可以看成既有的知識與提問的問題間的關聯性延伸,有相當的參考價值,也就是本文所說的「虛擬知識」。(作者提供)
圖五:筆者以錨定效應的其他個人性應用來引到ChatGPT做更具體的回應。這些「意見」不見得是具體實踐過而得到確認的知識,但是可以看成既有的知識與提問的問題間的關聯性延伸,有相當的參考價值,也就是本文所說的「虛擬知識」。(作者提供)

因此,從教育的觀點來看,這類「虛擬知識」就與一般教科書上所讀到的冷冰冰文字不同,反而是可以直接應用於個人生活的。這樣的知識恐怕也不是網路上所能查得到的,因此對於強調以個人經驗為中心的年輕世代,應該會是更容易吸收與應用的活知識。

3. 研究者、教育者與學習者的相對地位扁平化

當大型語言模型所引領出的「虛擬知識」被廣泛使用的時候,傳統知識結構的生產者(即研究者)、傳播者(即教育者)以及接受者(即學習者)三者之間的的之時階級關係(見圖一)一定會被扁平化。原因很簡單,因為傳統的知識傳遞順序顯然是因為實體學習需要教授與內化,兩者都要相當的時間才可能做得好。因此研究者在知識產出後,往往仍須要經過相當成的一段時間才能傳遞到學習者手上。而大專院校中的教授通常兼具研究者與教育者的身分主要目的之一,就是希望能在學習者基本知識足夠以後,可以更直接的與知識生產者學習或對話,減少這樣的知識傳播的時間,增加學習的效率與廣度。

但是現在每個人(不管是研究者、教育者還是學習者)在大型語言模型面前都是平等的,甚至不見得熟悉某些領域的術語或概念也都可以簡單的用ChatGPT「招喚」出來,再做後續的追問或學習。這種情形與網路時代的出現有相當類似性,但是不同之處在於網路的知識(假定式正確可靠的),絕大多數仍是一種靜態的呈現,要求學習者配合其設定來接受。但是如前一節所提到的,虛擬知識的個人性與實用性很可能會讓這樣的知識學習被更快的加速(但是前提是學習者有足夠的主動意願與基礎知識,文章下半部分會提到),也就等同於將「教育者」這個知識傳遞的中介地位來用AI做某種程度的取代。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章