王道維觀點:從生成式AI的「虛擬知識」看後知識時代的來臨

2023-03-31 05:50

? 人氣

(1)由大型語言模型所產生:許多讀者對這類生成式AI有所誤解,以為它是裝了大量的資料才能應答如流。筆者要特別強調ChatGPT這類經由大型語言資料庫所模擬而出的文字,並不是像圖書館、書本、資料庫、或甚至網路文章那樣以文字的方式儲存於電腦硬碟。其實工程師雖然使用了非常多的資料來訓練AI,但是真正儲存下來用的是這個AI模型的演算法與其參數,不是任何文字形式或代碼,已經與原始的資料完全不同也無法再被單獨的理解或簡單的修改。

[啟動LINE推播] 每日重大新聞通知

(2)與使用者共同構建:這些巨量參數不是文字,只是負責將使用者所輸入的文字問題轉為數字,經過計算有最大關聯性機率的一批數字再轉為文字輸出。也就是說「這類虛擬知識不是靜態的命題」,而是與使用者提問的內容連結在一起。這是為何有技巧的詢問(也就是當前很火紅的AI詠唱(prompt)方式)才能得到有價值的結果,而即便同一個問題詢問多次也可能會得到不一樣的結果。這代表這些虛擬知識與使用者如何提問,在甚麼背景下提問,都有密切關係,並非獨立於學習者(或使用者)的概念或命題。

(3)需要被檢驗一致性:由於大型語言模型只是負責產出文字,將機率最高的文字組合輸出,並不會去檢驗這些文字是否符合事實(除非是微軟的New Bing,是先搜尋再整合成文字,會更為可靠),所以其內容就算通順,但可能還無法被完全驗證是否為真實。不過即便如此我們至少可以藉由反覆用不同的方式詢問或再產生新的答案來驗證其是否有「一致性」。如果答案的文字雖然不同但其主要的大意與內容都沒有變化,而且沒有明憲的錯誤,其可能為真實的機率自然就高了。如果換個方式問就得到完全不同的結果,代表模型單獨一次的輸出結果不可信賴,自然也不能稱作知識。

舉例來說,圖三與圖四是以使用ChatGPT查詢某些「知識」的例子。筆者只是對同一個問題用類似的問法重複請ChatGPT回答。可以看得出圖三的兩次問題完全一樣卻得到完全不同的「答案」,代表這些接果並非可以信賴的知識。相較之下,圖三兩次提問的文字雖然有些不同,但得到的結果卻反而接近,代表可以考慮將這些意見看成是值得作為行為依據的「虛擬知識」。

圖三:筆者詢問ChatGPT同一個問題卻得到完全不一樣的回答,顯示任何一個「答案」都可能不是正確的。(作者提供)
圖三:筆者詢問ChatGPT同一個問題卻得到完全不一樣的回答,顯示任何一個「答案」都可能不是正確的。(作者提供)
圖四
 
圖四:筆者以學生的角度來詢問ChatGPT關於如何減少錨定效應對自己的影響,即使兩個問題的文字內容不同,但是得到兩個答案的內容相當一致,代表這樣的回答內容很可能是值得參考的虛擬知識,即便尚未有嚴謹的研究證實。(作者提供)
圖四:筆者以學生的角度來詢問ChatGPT關於如何減少錨定效應對自己的影響,即使兩個問題的文字內容不同,但是得到兩個答案的內容相當一致,代表這樣的回答內容很可能是值得參考的虛擬知識,即便尚未有嚴謹的研究證實。(作者提供)

四、虛擬知識的特色與影響

按照以上所提出之「虛擬知識」的定義,會發現有些重要的特色是傳統定義下的實體知識所沒有的,也因此可能會在未來的「後知識時代」中對教育現場帶來重要的影響。筆者先列舉目前可以預想得到的幾個特色:

1. 介於「意見」與「知識」之間

要進一步釐清以上所提到的虛擬知識與目前一般實體知識的差異,可以先從筆者語言理解的五個層次來看,分別是字詞、訊息、意見、知識與洞見[29]。其間的差異主要在於語言文字本質上作為一個符號,是如何因為與前後文字或被期待與真實世界所指定的事物或心目中的概念間有所連結而有不同。筆者可以用以下的表格來呈現,並附上一般高等教育中容易理解的一些例子做說明。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章