王道維觀點:從生成式AI的「虛擬知識」看後知識時代的來臨

2023-03-31 05:50

? 人氣

聊天機器人ChatGPT在全球掀起熱潮(資料照,取自@freshvanroot/Unsplash)

聊天機器人ChatGPT在全球掀起熱潮(資料照,取自@freshvanroot/Unsplash)

筆者嘗試論述,ChatGPT這類接近通用型AI的大型語言模型與其他生成式AI廣泛應用後,傳統學術殿堂所定義的知識將逐漸被解構,進入一個「後知識時代(Post-Knowledge Age)」:研究者、教育者與學習者的相對關係在高等教育領域會逐漸扁平化,改以大型語言模型所產生的「虛擬知識(Virtual Knowledge)」為中心(見圖一),透過需要使用者與AI共同參與的知識建構關係將不同領域串聯起來,促進知識結構的改變並影響高等教育中的人才培育模式。按此趨勢,筆者建議高等教育或學術機構除了短期內引導教師作教學與評量方式的改變外,也需要開始著力於中長期階段的基礎設施,促進虛擬知識的公共化建置與相關應用,同時改變部分學制架構以協助學生建立以個人志趣為主軸的專業發展,協助學生內化整合跨領域的虛擬知識與專業的實體知識,提升未來高階人才的競爭力以面對第四次工業革命的挑戰。

圖一:左圖是以往的知識傳遞流程,主要是研究者教育者學習者的線性模式,方法上可透過真實世界的實體互動或網路訊息的傳播。右圖是本文所提及的後知識時代中的運作模式,研究者、教育者與學習者環繞著以大型語言模型所生成的虛擬知識而互相影響。(作者提供)
圖一:左圖是以往的知識傳遞流程,主要是研究者教育者學習者的線性模式,方法上可透過真實世界的實體互動或網路訊息的傳播。右圖是本文所提及的後知識時代中的運作模式,研究者、教育者與學習者環繞著以大型語言模型所生成的虛擬知識而互相影響。(作者提供)

一、前言:問題的層次

自從2022年11月30日ChatGPT橫空出世以來,高等教育界可能是最立即感受到挑戰與立即需要重大轉變的領域:隨著ChatGPT一再被人實測通過許多重要的專業考試或課程要求[1],幾個月來全美國各大學已經趕緊重新調整相關科目的教學與評量方式[2],而國內也有越來越多的大學提供給老師與學生一些基本的建議引導[3],成立專案小組來研擬對策[4],或舉辦各類師生座談[5]與相關講座[6]。

[啟動LINE推播] 每日重大新聞通知

2023年3月15日最新版本的GPT-4更是高分通過各種考試[7],又能結合圖片與文字的多模態表達[8],而Google[9]與Microsoft[10]也相繼宣布將這類生程式AI更多融合進入線上或線下的文書處理工具中(包括搜尋引擎New Bing與Office 365等系列產品),甚至連寫程式也只需要人類用語言提出需求就可以完成[11],顯然將對當前高等教育的主流帶來更大的震撼。

雖然台灣的各大學幾乎都是持相對正面開放的態度來面對這類生成式AI的應用[12],但是以筆者目前有限的角度觀察,整體而言目前似乎仍著重於從傳統的知識觀點來討論在教學層面的善用、學習層面的引導或學術倫理的監管。但其實面對這類生成式AI[13]或近乎通用型AI[14]的新科技,我們首先須要承認的現實是,年輕一代的學生其實比老師更為善用這類工具,所以這整個局勢已經不只是教育者的教學/評量方式作些微調整即可處理的[15],而是可能需要思考如何對「知識」重新定義並因此調整學習目標。確定問題本質與釐清目標後我們才能從教育心理的角度重新發展或評估AI時代的教學與學習方法,而這兩者顯然也會在不同學科或不同學生程度間有顯著的差異。影響所及會是未來整個社會如何培育高階人才與調整產業結構,面向第四次工業革命的到來。

二、從教育觀點來區分生成式AI的三大類型功能

在筆者撰寫此文章時,ChatGPT已經進化到新的版本(第一版背後的大型語言模型編號為GPT-3.5,而新版的為GPT-4),可以同時使用圖片與文字來作回應與對話,也有更好的考試成績[16]。不過值得注意的是,由於GPT-4的參數量顯然比GPT-3.5更多出許多,在重複追問類似問題的時候的確有可能落入演算法的迴圈而使其回應產生錯亂,也就是所謂的「AI幻覺」[17]。微軟為了使裝設GPT-4的New Bing避免此問題,採取限制提問的次數[18],但未來應該會在模型重新訓練好後有機會再增加與調整。

但是為了方便討論起見,筆者此處還是先針對ChatGPT第一版的功能做些不同的分類,目的是要凸顯出大部分人在談ChatGPT或生成式AI對教育的影響時,其實可能混淆了不同範圍的功能而不容易產生共識。本文以下所討論整理的方式是從使用者需求的功能類型來區分,短時間內應該不會受到未來版本更新、功能提升或其他類似產品出現的影響。

1. 要正確可靠、創意豐富還是方便實用?

如筆者曾經在之前的文章中提及[19],ChatGPT這類的大型語言模型藉由「語言是最接近人類思維模式的表徵(representation)方式」這個特質,進入到如今接近通用型AI的狀態。因此其最令人驚豔的能力便是只要是可以透過語言文字的表達來呈現的問題或任務,幾乎都可以有相當不錯的表現。為了讓以下討論可以更具焦,筆者這裡先以鉅亨網[20]以及天下雜誌[21]所整理出來關於ChatGPT的使用方式為例將這些個別功能細項作整理。

雖然ChatGPT能作的事情看起來很豐富多樣(甚至可能還有些沒有納入),但是筆者認為其實只需要依據使用者主要的功能需求,就可以將之歸類為表一的三大類型(正確可靠、創意豐富、還是方便實用)。筆者相信其他不同單位或來源所羅列出的細項功能雖可能有所不同,但不會影響這三大分類的方式。

表一:筆者依據鉅亨網與天下雜誌所羅列的各樣細項功能再整理成三大類型,並補上在教育場域使用時所特別關切的重點。(作者提供)
表一:筆者依據鉅亨網與天下雜誌所羅列的各樣細項功能再整理成三大類型,並補上在教育場域使用時所特別關切的重點。(作者提供)

以上三個大方向的分類當然不是彼此完全互斥的,甚至ChatGPT的許多功能可以兼具三者。但是筆者以上是以使用者的「功能需求」來分三大類型,並不代表ChatGPT或這類AI機器人一定可以滿足這些期待。畢竟,ChatGPT只是根據機率而產生文字接龍的機器,不是真正意義上的問題解決工具。因此,即便有GPT-4或更新的版本,或是其他產品的加入,大概也不容易超過這三大類型範圍,而只是增加各範圍中的某些特定功能而已。例如GPT-4可以直接把圖片生成文字描述,就可以歸類於「方便實用」這個類型。New Bing可以搜尋最新的網頁資訊,當然可以歸類於「正確可靠」這個類型。

2. 對不同功能的接受態度不同

筆者將AI本來看似百花齊放的各式功能濃縮到以上三大類型,是對於本文想要處理的教育議題是有密切關係的:代表不同範圍的應用在教學或學生學習的場域,支持者仍有不同的態度來面對,簡述如下:

(1) 對於類型A(正確可靠)的功能一定是保守謹慎的:因為是與「知識」的正確性和可靠性有關,教育者會特別看重而希望學習者不會因為過於倚賴ChatGPT而變得毫無分辨能力,或是只會如鸚鵡模仿一般,只會照AI提供的文字表象卻不知其義,沒有內化到思想層次。

(2) 對於類型B(創意豐富)的功能則是有條件開放的:因為沒有客觀唯一的答案,反而是希望能提供更多創意發想來刺激對話,在眾多選擇中找到學習者心中想要表達的內容。事實上,除了ChatGPT對文字方面的處理以外,有更多生成式AI可以快速協助圖片、音樂或甚至影像類型的創作。但是因為教育目標是培養學習者的創意連結,還需要增加讓使用者可以論述相關的原因或目的,並且要謹慎避免陷入抄襲或侵權的相關法律問題。

(3) 對於類型C(方便實用)的功能一定是鼓勵善用的:因為除了部分強調專業文書處理的學科以外,這類的功能大多數時候並不是高等教育鼓勵學生精進的核心目標,但可能卻是學習生活中不可或缺的重要工具。如果能鼓勵學習者善用AI的工具來減少這些不必要的庶務時間,將更多的時間或精神集中於學習的目標,應該都是有助於學習的[22]。

3. 「正確可靠」的功能最容易受質疑

由以上的分析也可以知道,我們討論ChatGPT這類生成式AI對教育的影響時,不能不區分所需求的功能類型而混為一談。對高等教育相關科系學習內容熟習的人也一定可以馬上看得出,往往某些特定科系對某類型的需求可能會明顯多於其他類型(但不代表不需要其他類型的需求):例如人文社會領域的學科往往需要繳交閱讀相當多的文本與繳交論述相關的報告,而理工科系常常需要撰寫電腦程式來輔助學習或研究,更不用說學術論文,以至於會可能會讓學生大量倚靠類型A的功能。相較之下,強調創作或發表的文學、戲劇、設計、藝術、或商業管理等相關科系中,就可能會更多鼓勵學生善用類型B的功能。而其中除了ChatGPT對文字方面的處理以外,有更多生成式AI可以協助影像或圖片的創作,或是關於音樂歌曲的生成模擬。

因此,我們很快就能發現,當前國內外高等教育中對使用這類AI機器人最有疑慮的是屬於類型A的應用:因為這牽涉到如何定義正確的知識,是高等教育敏感的學術核心。主要的擔憂來自於以下三點:(1) 生成式AI並非搜尋引擎,所得到資訊可能不正確或有偏見難以複查其出處[23],但是這部分隨著New Bing將之接連到搜尋引擎上處理搜尋的結果會逐漸減少。(2) 學習者失去學習的內化過程因而難說有真正的理解或體會,3. 評量學習成果時容易因為使用AI而失去公平性。因此本文會以類型A的應用功能(強調正確可靠性的知識)為討論的核心,提供不同的視角與框架來看待這重要的問題。

雖然類型B的創意生成功能也會對相關科系的評量或訓練造成困擾,但是畢竟在學生激發創意表現的過程中,本來就需要透過大量的閱讀、觀展、對話或生活體驗來擴增想像力著有不同觀點的或刺激,讓學習幾乎不可能封閉在特定的範圍(如其他領域的教科書之類的)。因此相關的挑戰比較特別[24],本文就不再多作著墨。

三、「虛擬知識」的生成與定義

1. 關於「知識」的條件

為了要能更準確的了解向ChatGPT這類接近通用型AI對教育的影響,筆者認為我們應該先檢視所謂的「知識」,這個在高等教育殿堂中最被重視的教學內涵。在西方哲學傳統中,甚麼樣的論述或需要滿足甚麼樣的條件才可以稱作知識,或者一個人真正能夠了解明白的內容是甚麼,都是屬於哲學上「知識論」(Epistemology)的範圍,屬於西方哲學重要的一個分支。

在17-18世紀的時候,因為中世紀的基督教神學思想傳統受到文藝復興的衝擊,使哲學開始脫離神學而開始建立自己的內涵與主題。當思辨獨立於信仰之外的時候,自然就須要反思那些才是真正可信的知識而非只是信仰的內容。當時有許多重要的哲學家參與知識論相關的討論,大抵上可分為歐陸的理性主義傳統與英倫三島的經驗主義兩大傳統,而後由德國大哲學家康德(Immanuel Kant)做了相當好的整合與界定。但是為免本文過於發散,以下所提到的知識就只包含我們一般課堂上討論理解的範圍,不包括康德所區分出如「超驗(transdental)」或「先驗(a priori)」的相關內涵[25]。

若用一般常見的語言,我們學術或教育上所傳達的知識若要可為值得相信為正確可靠,大致上需要一種與外在世界相符或可驗證(也就是有經驗主義的基礎),且有內在邏輯理由或至少不自我矛盾(有理性主義的架構)的整合性概念。其中科學性的知識往往更多強調實證的傳統(或稱為後驗知識),需要有可重複實驗或精確量測的結果作為支持才能被納入知識的主流,而人文社會領域往往因為精確驗證的不容易得到而會更多強調理性思辨或詮釋的發揮。即使某些想法或許不見得直接或準確的可以得到驗證,但也會因為其論述的精緻性或概念的啟發性而被納入主流的知識內容,傳遞延續。

不論各學科強調的重點如何,一般的(實體)知識都必須在感性(回應現實世界)與知性(回應心智世界)上可以有相當的整合。所對應的「學習」也就是我們將這些知識內化的過程,需要有個人主動的參與和外界適當的引導才可能完成

2. 「顯性知識」與「隱性知識」的區分

在更具體說明「虛擬知識」之前,筆者認為還需要先釐清「顯性知識」與「隱性知識」兩種類型的知識[26]。顯性知識是指「可以用語言或文字語言表述傳達」的知識內容,如同我們在教科書、期刊論文或媒體網路等方式所呈現的內容,也是高等教育所最為強調的部分。這裡需要強調的是,雖然語言文字是最接近人類思想的「表徵(representation)」,但並不等於思想。

因此那些不能或很難由語言或文字所表達的知識內涵,但是仍是可以重複驗證且合乎理性而教育培養的知識,可統稱為「隱性知識」。隱性知識的存在事顯然的,畢竟那些無法使用語言或文字表達的人還是可能在生活中執行如算術、管理、溝通或作出其他有意義的肢體動作,確認其思想與意識的存在,甚至傳遞給下一代或其他人。

以上的區分對於我們討論大型語言模型所產生的文字內容是必要的,畢竟語言文字畢竟是我們思想最重要的載體,能協助一個人將其觀點或知識傳達給其他人,甚至保留、紀錄或修改,協助更精致的逼近真實的概念或共識。但是我們也知道語言文字也是「符號」的組合,其與所牽涉到的概念之間幾乎是有任意定義的特性。因此電腦也可以計算這些符號彼此之間的關係來模擬思想。而這正是為何大型語言模型(如ChatGPT)會是往通用型AI推動最重要方式。

圖二:由左至右分別是真實的事物(以圖像代替)、大腦思想、語言文字與生程式AI,對於同一個事件可能有不同的處理方式。這四者是本質上完全不同的東西,卻彼此有相關性。部分圖片來自網路創用cc授權 。[27](作者提供)
圖二:由左至右分別是真實的事物(以圖像代替)、大腦思想、語言文字與生程式AI,對於同一個事件可能有不同的處理方式。這四者是本質上完全不同的東西,卻彼此有相關性。部分圖片來自網路創用cc授權 。[27](作者提供)

從現代語言學的意義上來看,文字這類「符號」看起來表述了一些概念,但其實也承載了很多其實沒有辦法完全表達的預設或常識,後者是作為語言溝通時雙方不證自明的假設但不一定是AI能學習到的。例如圖二所表達,當我們看到一隻貓與一隻老鼠對坐的時候,應該會覺得很驚奇,可能不太相信是正常情形。這顯然是因為我們已經「預設」了貓的天性會去捉老鼠,兩者和平共存似乎前所未聞。但是對AI大型語言模型來說,這些理解文字的「預設」可能並未透過訓練進入其模型,而是需要使用者自行腦補這些常識。這也就是應證了二十世紀最重要的哲學家海德格(Martin Heidegger)所說的「語言召喚存在」或「真理既遮蔽又開顯」[28]。

3. 「虛擬知識」的定義

藉由以上的分析,筆者本文所說的「虛擬知識(Virtual Knowledge)」可以這樣定義:藉由AI大型語言模型(如ChatGPT這類對話機器人)所產生,在使用者輸入問題且自行補充適當的預設來理解後,即使尚未驗證為真實卻因為有相當的一致性且沒有明顯錯誤,以致於可以為使用者參考應用的顯性知識。

因此這個「虛擬知識」有以下三個重要的元素:

(1)由大型語言模型所產生:許多讀者對這類生成式AI有所誤解,以為它是裝了大量的資料才能應答如流。筆者要特別強調ChatGPT這類經由大型語言資料庫所模擬而出的文字,並不是像圖書館、書本、資料庫、或甚至網路文章那樣以文字的方式儲存於電腦硬碟。其實工程師雖然使用了非常多的資料來訓練AI,但是真正儲存下來用的是這個AI模型的演算法與其參數,不是任何文字形式或代碼,已經與原始的資料完全不同也無法再被單獨的理解或簡單的修改。

(2)與使用者共同構建:這些巨量參數不是文字,只是負責將使用者所輸入的文字問題轉為數字,經過計算有最大關聯性機率的一批數字再轉為文字輸出。也就是說「這類虛擬知識不是靜態的命題」,而是與使用者提問的內容連結在一起。這是為何有技巧的詢問(也就是當前很火紅的AI詠唱(prompt)方式)才能得到有價值的結果,而即便同一個問題詢問多次也可能會得到不一樣的結果。這代表這些虛擬知識與使用者如何提問,在甚麼背景下提問,都有密切關係,並非獨立於學習者(或使用者)的概念或命題。

(3)需要被檢驗一致性:由於大型語言模型只是負責產出文字,將機率最高的文字組合輸出,並不會去檢驗這些文字是否符合事實(除非是微軟的New Bing,是先搜尋再整合成文字,會更為可靠),所以其內容就算通順,但可能還無法被完全驗證是否為真實。不過即便如此我們至少可以藉由反覆用不同的方式詢問或再產生新的答案來驗證其是否有「一致性」。如果答案的文字雖然不同但其主要的大意與內容都沒有變化,而且沒有明憲的錯誤,其可能為真實的機率自然就高了。如果換個方式問就得到完全不同的結果,代表模型單獨一次的輸出結果不可信賴,自然也不能稱作知識。

舉例來說,圖三與圖四是以使用ChatGPT查詢某些「知識」的例子。筆者只是對同一個問題用類似的問法重複請ChatGPT回答。可以看得出圖三的兩次問題完全一樣卻得到完全不同的「答案」,代表這些接果並非可以信賴的知識。相較之下,圖三兩次提問的文字雖然有些不同,但得到的結果卻反而接近,代表可以考慮將這些意見看成是值得作為行為依據的「虛擬知識」。

圖三:筆者詢問ChatGPT同一個問題卻得到完全不一樣的回答,顯示任何一個「答案」都可能不是正確的。(作者提供)
圖三:筆者詢問ChatGPT同一個問題卻得到完全不一樣的回答,顯示任何一個「答案」都可能不是正確的。(作者提供)
圖四
 
圖四:筆者以學生的角度來詢問ChatGPT關於如何減少錨定效應對自己的影響,即使兩個問題的文字內容不同,但是得到兩個答案的內容相當一致,代表這樣的回答內容很可能是值得參考的虛擬知識,即便尚未有嚴謹的研究證實。(作者提供)
圖四:筆者以學生的角度來詢問ChatGPT關於如何減少錨定效應對自己的影響,即使兩個問題的文字內容不同,但是得到兩個答案的內容相當一致,代表這樣的回答內容很可能是值得參考的虛擬知識,即便尚未有嚴謹的研究證實。(作者提供)

四、虛擬知識的特色與影響

按照以上所提出之「虛擬知識」的定義,會發現有些重要的特色是傳統定義下的實體知識所沒有的,也因此可能會在未來的「後知識時代」中對教育現場帶來重要的影響。筆者先列舉目前可以預想得到的幾個特色:

1. 介於「意見」與「知識」之間

要進一步釐清以上所提到的虛擬知識與目前一般實體知識的差異,可以先從筆者語言理解的五個層次來看,分別是字詞、訊息、意見、知識與洞見[29]。其間的差異主要在於語言文字本質上作為一個符號,是如何因為與前後文字或被期待與真實世界所指定的事物或心目中的概念間有所連結而有不同。筆者可以用以下的表格來呈現,並附上一般高等教育中容易理解的一些例子做說明。

表二:語言理解的五種層次與其簡要比較。本文所提的「虛擬知識」可是為誡於「意見」與「(實體)知識」之間的層次。(作者提供)
表二:語言理解的五種層次與其簡要比較。本文所提的「虛擬知識」可是為誡於「意見」與「(實體)知識」之間的層次。(作者提供)

筆者認為ChatGPT大部分的輸出文字只能屬於「意見」層次,只有少部分可以透過與外界事實的確認而肯定到達了「知識」的程度。但是在絕大部分的使用情境下,使用者所得到的內容是即時出現的,所以往往無法立即透過外界獨立的資訊來驗證這些意見的可靠性。

但是反過來說,使用者如果在多次多方的詢問中(因為文字生成的速度夠快,同一類問題可以問很多次或使用更好的提示詞(prompt)來問得更深入具體),AI可能給出主要概念相當一致的回答結果,並且沒有明顯重要的錯誤,那就可以合理歸類為筆者所謂的「虛擬知識」。這樣的「虛擬知識」當然可能有錯誤,但至少可以很快得到,而且可能比實體知識或網路訊息更客製化(因應使用者的需求),讓使用者可以利用其內容作進一步的探索或其他相關決定。

2. 更加個人化與實用化

由於大型語言模型是根據輸入的文字與訓練資料計算相關性,找出機率最大的文字來輸出,所以他所提供的「答案」其實是與題目的詢問方式密切相關,並不是獨立於使用者的命題。不同的提問方式也可以被視為一種提示工程(prompt engineering),相當於用人類的自然語言來寫程式,讓ChatGPT這類語言模型可以更精準正確的回應[30]。

以圖五的問題為例(延續圖四的問題),若筆者再加入一些個人性的條件,就可以更精確地針對某個個人情境來得到具體可用的知識。

錨定效應例子(作者提供)
錨定效應例子(作者提供)
圖五:筆者以錨定效應的其他個人性應用來引到ChatGPT做更具體的回應。這些「意見」不見得是具體實踐過而得到確認的知識,但是可以看成既有的知識與提問的問題間的關聯性延伸,有相當的參考價值,也就是本文所說的「虛擬知識」。(作者提供)
圖五:筆者以錨定效應的其他個人性應用來引到ChatGPT做更具體的回應。這些「意見」不見得是具體實踐過而得到確認的知識,但是可以看成既有的知識與提問的問題間的關聯性延伸,有相當的參考價值,也就是本文所說的「虛擬知識」。(作者提供)

因此,從教育的觀點來看,這類「虛擬知識」就與一般教科書上所讀到的冷冰冰文字不同,反而是可以直接應用於個人生活的。這樣的知識恐怕也不是網路上所能查得到的,因此對於強調以個人經驗為中心的年輕世代,應該會是更容易吸收與應用的活知識。

3. 研究者、教育者與學習者的相對地位扁平化

當大型語言模型所引領出的「虛擬知識」被廣泛使用的時候,傳統知識結構的生產者(即研究者)、傳播者(即教育者)以及接受者(即學習者)三者之間的的之時階級關係(見圖一)一定會被扁平化。原因很簡單,因為傳統的知識傳遞順序顯然是因為實體學習需要教授與內化,兩者都要相當的時間才可能做得好。因此研究者在知識產出後,往往仍須要經過相當成的一段時間才能傳遞到學習者手上。而大專院校中的教授通常兼具研究者與教育者的身分主要目的之一,就是希望能在學習者基本知識足夠以後,可以更直接的與知識生產者學習或對話,減少這樣的知識傳播的時間,增加學習的效率與廣度。

但是現在每個人(不管是研究者、教育者還是學習者)在大型語言模型面前都是平等的,甚至不見得熟悉某些領域的術語或概念也都可以簡單的用ChatGPT「招喚」出來,再做後續的追問或學習。這種情形與網路時代的出現有相當類似性,但是不同之處在於網路的知識(假定式正確可靠的),絕大多數仍是一種靜態的呈現,要求學習者配合其設定來接受。但是如前一節所提到的,虛擬知識的個人性與實用性很可能會讓這樣的知識學習被更快的加速(但是前提是學習者有足夠的主動意願與基礎知識,文章下半部分會提到),也就等同於將「教育者」這個知識傳遞的中介地位來用AI做某種程度的取代。

當然,研究者作為傳統實體知識的生產者,還是對於知識結構的有效性與正確性有著比教育者或學習者更大的決定權力,因此並不一定會需要善用大型語言模型所提供的虛擬知識來學習。但是也正是因為這個原因,在知識越來越多元且跨領域連結的時代,這類傳統的研究者對於實體知識的貢獻,如果沒有更積極的努力,的確可能對於學習者會越來越難有更深刻的影響。畢竟年輕的學習者可以更早就從AI的虛擬知識獲得一些基本了解,其數量或速度所造成的影響力,可能很難為傳統的研究者所改變(也就是所謂的錨定效應[31])。

4. 加速跨領域的知識整合

虛擬知識所能產生最大的影響­­並不是在傳統實體知識已經非常成熟的領域,而是在新興領域與跨領域的範圍。原因並不只是因為藉由網路傳播的速度,而是因為即便人類的知識領域有成千上萬種,卻都是使用自然語言、數學公式或程式語言所組合出來的結果(這也是前述「顯示知識」的特色,可以用符號表達)。AI大型語言模型本質上就是將這些所有的表達方式透過各種機器學習的方式,將大量的文字資料庫來做整體的訓練。因此只要是使用同一套語言來表述(例如物理語文學都可以用中文字來表達),這些表面上很不一樣的學科還是可能透過AI而結合。事實上,也就是大型語言模型最重要的特色之一

為了凸顯大型語言模型所創造的虛擬知識在跨領域學習上所扮演的角色,筆者將圖一加入更多領域的示意圖成圖六:

圖六:左圖表達出由於傳統知識主要是線性的方式來傳遞,累積各自的專門術語或觀點,造成各領域之間不容易跨越整合。右圖表達在後知識時代中,由於大型語言模型的虛擬知識會推動更多跨領域學習與互動,使知識的傳遞更加快速密切。(作者提供)
圖六:左圖表達出由於傳統知識主要是線性的方式來傳遞,累積各自的專門術語或觀點,造成各領域之間不容易跨越整合。右圖表達在後知識時代中,由於大型語言模型的虛擬知識會推動更多跨領域學習與互動,使知識的傳遞更加快速密切。(作者提供)

圖六的作囿兩張圖分別是圖一的對應,但是增加更多的領域進入。我們很明顯能看出為何傳統的線性傳播方式(研究者-->教育-->學習者)對跨領域學習並不友善,因為每個領域都各自有自己的一套知識產生方式與其對應的實體學習方式,只有實體進到該領域的學習者或教育者才能有所掌握。雖然數位學習與網路增進跨領域的機會,但是整體而言並沒有改變這個結構。

但是在後知識時代,如前所述,虛擬知識會更自然的扮演起推動跨領域學習的角色,因為任何領域的學習者都可以輕鬆的使用自己的語言來詢問其他領域的問題,得到一些還不錯而可以實際應用的回答。雖然學習者可能無法完全確認所得到回答是否符合該專業領域的標準,但是只要經過多次不同的詢問得到一致性的結果,學習者還是有機會得到一些對於未知領域相對確認可靠的知識。而這些可能只需要幾秒鐘到幾分鐘的時間就能完成,遠比自己讀書或查網路文章快上許多,因此更降低了跨領域的門檻,促進更多領域知識間的交流。

假設虛擬知識中有N個領域的訓練資料。除了回應傳統N個領域的問題,還至少可以提供N (N-1)/2種兩個領域互相交錯影響的範圍。以此可知,在知識領域數目越來越多的現代高等教育,跨領域的可能顯然會有遠比原來單獨N個領域還要多的多,也正是虛擬知識從數量上掩蓋實體知識的部分。但是當然,這並不都代表這些跨領域的知識是完全正確或有實際用處或是都能正確無誤的,但是作為引領入門的方式,顯然沒有比這個更簡單、更快速、更值得嘗試的方式。而這也是為何筆者相信,在後知識時代,學習者本身也參與了虛擬知識的建構,與研究者的差距有機會更進一步拉近。(另一個原因是教育者的角色某種程度被大型語言模型所取代)。

五、具體建議:加速AI素養教育的基礎建設

面對「後知識時代」的來臨,筆者認為除了目前各校所提出的教學與學習指引外,更需要加速關於AI素養教育的基礎建設。大致包括以下幾個面向(以下更針對政府、研究機構或高等教育單位,並非針對學生或教師個人):

1. 在地知識與研究資料的公共化與結構化

眾所周知,如ChatGPT這類大型語言模型是需要大量的文字語言資料來作訓練(GPT-4還包括圖片或影像的資料)。這類資料雖然不是像檔案夾一樣儲存於演算法中,卻仍然是透過AI模型的訓練過程而影響模型參數,間接影響最後的文字輸出。而微軟的New Bing更直接將搜尋引擎與GPT-4結合。這使得虛擬知識的產生會更多倚賴於相關資料的數位可及性。這對於在地化的人文社會領域研究有特別深刻的重要性,否則很容易在此大型語言模型所創造的虛擬知識中失去被學習者注意而導致學習偏誤。在AI大數據的時代,這種基礎資料建置可能比硬體設備更為重要,需要積極往公共化與結構化的方向作整理,使之可以成為AI時代可以用來訓練獨特AI應用的重要資產,也是筆者曾經另行撰文表達的深切提醒[32]。

2. 系統性開發大型語言模型相關的應用

最近OpenAI的API已經容許讓ChatGPT這個AI對話機器人可以連上網際網路以搜尋即時資訊,或使用第三方服務,使之成為開發平台等等[33]。在美國已經有許多業界公司在不同程度上將ChatGPT導入到工作流程中,甚至使用自己的資料來加工訓練更客製化的AI對話機器人[34]。類似的作法應該亦為我國學術機構或政府所看重,規劃如何善用這些大型語言模型來訓練在地化的資料或建立更符合教學目標的外掛應用程式。好讓我國本土特有的知識資料能夠被自己的使用者更為看重,並進入虛擬知識的領域來產生更大的影響力。

3. 推動以個人志趣為中心的「外掛式學習」

本文並不認為實體知識或傳統的學習方式會消失或被虛擬知識所取代,而是說兩者會平行共存,原因是虛擬知識的根本仍然來自實體知識,只是提供更為方便整合與傳達的方式。但是由於學習的對象不同,學習的方式也必然有所差異。畢竟虛擬知識需要學習者更為積極主動的參與,才能透過問題的設計與引導讓自己學習到更深入的內容。這部分筆者稱之為「外掛式學習(Plugin Leanring)」,因為這相當於將一部分的學習過程與AI大型語言模型作結合,減少學習者在茫茫知識領域查詢、蒐集或整理資料的過程,但仍需要學習者自行透過反思、詰問與另行確認檢驗,以至於達到精簡有效的學習歷程。因此虛擬知識的學習可能會比目前的實體知識更倚賴於學生個人的志趣。未來的高階人才必然是能將虛擬知識與實體知識作充分有效的整合,但是相關的學習方式還有待更多的開發。並且也需要高等教育單位在學制規劃、課程設計、學生人數、評量方式、設備支援或共學團體等等方面提供更適切的配套措施。這部分筆者會在未來的文章中作進一步的闡述。

六、總結

從以上的分析可知,AI時代的「虛擬知識」已經不在是教科書或是網頁上以文字、公式或圖畫所表現出來的固定命題集合,而是可以透過使用者的提問而大量產生,使得學生可以更容易跨越領域間的隔閡,進入多元紛雜而真假難辨的「後知識時代」。面對這種對傳統知識的定義、生產、傳播甚至學習方式的解構,許多過往對於傳統知識的理解架構也需要被調整。未來生成式AI或其他類型的AI發展只會更加快速,促使高等教育的轉型也更為急迫嚴峻。本文希望將這些對知識界或教育界的影響以「虛擬知識」的概念作統合,拋磚引玉促進教育界與學術界人士更多發想與思考,共同面對未來世代人才培育的挑戰。

註釋:

[1] 例如以下報導,〈ChatGPT多聰明?實測能通過美名校商學院、法學院考試〉,經濟日報 (1/29/2023)。引用網址

[2] 相關報導非常多,可參考〈禁了也沒用,美大學開始改變教學方式研究怎麼與ChatGPT 共存、又不用擔心學生抄襲〉,36氪(1/31/2023)。引用網址

[3] 〈臺大針對生成式AI工具之教學因應措施〉,台灣大學教學發展中心X數位學習中心,引用網址

[4] 可參考〈ChatGPT衝擊,清大設專案小組〉,自由時報(2/15/2023)。引用網址

[5] 〈ChatGPT能用來寫作業?陽明交大率先與學生公開對談〉,中國時報(3/15/2023)。引用網址

[6] 例如成大圖書館所舉辦的,〈生成式人工智慧的圖文革命浪潮 成大圖書館舉辦 ChatGPT 與 MidJourney 系列演講及書展〉,引用網址

[7] 可參考〈GPT-4 如何輾壓現有人工智慧,讓 Google 眼前一黑?〉,科技新報(3/15/2023)。

[8] 可參考〈GPT-4登場!OpenAI這次新增哪些功能?與GPT-3.5差異一次看〉,商業週刊(3/15/2023)。引用網址

[9] 〈Google攔胡微軟!Google文件、Gmail導入AI,可以自動寫草稿⋯還有哪些亮點?〉,數位時代(3/15/2023)。引用網址

[10] 〈微軟震撼推出Copilot,Word、Excel、PPT用法全AI化!為何說Copilot像《鋼鐵人》Jarvis?〉,數位時代 (3/17/2023)。引用網址

[11] 〈大核彈降臨:GitHub 推出Copilot X,有 GPT-4 讓人直接用「嘴」寫程式碼〉,Inside (3/23/2023)。引用網址

[12] 可參考〈紐約、香港學校禁用ChatGPT 台灣教授為何大膽帶進校園?〉,天下雜誌(2/21/2023)。引用網址

[13] 生成式AI(Generative AI)是一種特定功能的AI模型,藉由設計特定的學習方式,將大量數據(如圖片或語言)內部的關係提取出來,因而可以由提示的關鍵文字來生成電腦資料庫中最可能重新組合的文字或圖片來回應。因此這並不是搜尋引擎來尋找特定的網址或答案,而是直接產生新的文字或圖像組合作為「模擬答案」。

[14] 通用型AI(Artificial General Intelligence)是泛指可以在相當廣的範圍內處理各種類型的資料或功能,彷彿人類大腦所能作的許多不同工作。本文所討論的ChatGPT若限制在文字處理的範圍內,可以算是當前最接近這個概念的AI產品,因為可以展現各種不同的功能(創作、回答、翻譯、改寫等等)。未來當然一定會偶更好的產品或更多樣模態來訓練的AI,如Google最近發表的PaLM-E:〈Google發佈史上最大「通才」多模態模型PaLM-E,能看圖說話還操控機器人無所不能〉,電腦王(3/11/2023)。引用網址

[15] 本文的目的不在於提供具體的要「如何」在教學上作更多的調整,好讓教育者可以讓學習者更好的使用AI來學習,或如何讓教育者可以做到公平合理的評量,不受學習者使用AI所影響。這類的教學經驗分享或具體建議已經在許多地方可以找得到,此處就不再引述。

[16] 相關說明可見OpenAI關於GPT-4的官網說明,引用網址

[17] 可參考,〈致命傷出現?微軟承認新版Bing缺陷:聊天太久AI會生幻覺〉,自由時報(2/17/2023)。引用網址

[18] 可參考,〈微軟將為Bing Chat設下限制,每回對話最多5次、每天上限50次〉,iThome (2/20/2023)。引用網址

[19] 可參考,王道維,〈當Google遇上ChatGPT──從語言理解的心理面向看AI對話機器人的影響〉,風傳媒(2/11/2023)。引用網址:https://www.storm.mg/article/4725780?mode=whole。後來增補的版本亦可直接見於筆者的部落格原文

[20] 可參考,〈ChatGPT怎麼用?透過寫報告、程式範例 讓你快速掌握人工智能對話技巧〉,

[21] 可參考,〈紐約、香港學校禁用ChatGPT 台灣教授為何大膽帶進校園?〉,天下雜誌(2/21/2023)。引用網址

[22] 事實上,Microsoft已經將GPT4應用於其Office365的文書處理系統,可能會全面加速類型C的AI應用。可參考,〈微軟震撼推出Copilot,Word、Excel、PPT用法全AI化!為何說Copilot像《鋼鐵人》Jarvis?〉,數位時代 (3/17/2023)。引用網址

[23] 網路上許多人對於ChatGPT回答特定資訊的使用方式其實比較像是使用搜尋引擎,期待找到正確的資訊或出處。但是語言模型的駐點就只是負責「生成」最相關的文字,而不是負責找到已經存在的文字,因此有錯誤反而是正常的。這往往是使用ChatGPT這類以大型語言模型訓練的AI對話機器人所忽略或誤解的地方。這部分可參考筆者的文章說明,〈當Google遇上ChatGPT──從語言理解的心理面向看AI對話機器人的影響〉,風傳媒(2/11/2023)。引用網址。後來增補的版本亦可直接見於筆者的部落格原文

[24] 有興趣的讀者可以參考。赫許(Andreas J. Hirsch),〈關於人工智慧應用至藝術領域的五點初步說明〉,台灣數位藝術(8/21/2022)。引用網址

[25] 「超驗」與「先驗」都是「獨立或先於經驗」的意思,但兩者完全不同。例如數學在設定一些定義與公理後,其推導結果的正確性不依賴於經驗世界的情況,是屬於先驗的科學。但是「超驗」是指經驗世界可以用什麼方式展現於我們的必要條件,也同樣不依賴於經驗世界。讀者可參考維基百科「先驗與後驗」。

[26] 可參考維基百科

[27] 圖片來源

[28] 可參考紀金慶,〈海德格:語言如何召喚存在〉,沃草烙哲學(5/16/2017)。引用網址

[29] 可參考,王道維,〈當Google遇上ChatGPT──從語言理解的心理面向看AI對話機器人的影響〉,風傳媒(2/11/2023)。引用網址。後來增補的版本亦可直接見於筆者的部落格原文

[30] 可參考,〈不寫程式,也能拿千萬年薪!AI大浪催生新職業「AI溝通師」〉,商業週刊(3/3/2023)。引用網址

[31] 錨定效應是指人類在進行決策時,會過度偏重先前取得的資訊,即使這個資訊與這項決定無關。詳見維基百科的說明。引用網址

[32] 林文源與王道維,〈淺談AI時代的台灣優勢與發展策略〉,風傳媒(2/22/2023)。引用網址:https://www.storm.mg/article/4738337?mode=whole。部分文字修改後的版本可見筆者的部落

[33] 可參考,〈ChatGPT支援外掛,可使用外部服務搜尋即時資訊〉,iThome (3/24/2023)。引用網址

[34] 可參考以下報導,〈在車裡用 ChatGPT? 美國通用汽車將開發相關功能〉,自由時報(3/11/2023)。引用網址

*作者為國立清華大學物理系教授、國立清華大學諮商中心主任、國立清華大學人文社會AI應用與發展研究中心副主任

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章