一所知名大學最近宣布關閉其哲學系,理由是「資源重新分配」與「市場需求」。消息一出,輿論譁然,卻又迅速平息。這樣的新聞,如今已不再令人驚訝,甚至開始讓人感到一種麻木的熟悉感。
全球各地的科技公司持續以驚人的速度推出新一代AI系統,每一次發布都伴隨著令人眼花撩亂的數據與預測。兩件事同步發生,卻幾乎沒有人將它們並排檢視,那就是當我們愈來愈依賴AI來理解世界,卻同時系統性地拆解那些幫助我們理解AI的學科,我們究竟在做什麼?
這不是一個地區性的偶發現象,而是一股橫跨不同政治體制、不同文化背景的全球浪潮。無論是民主國家還是威權政體,無論是後殖民的新興經濟體還是老牌工業強國,人文與社會科學正在以各種不同的理由被削減、被邊緣化,或者被迫改換面貌以求生存。理由可能是「不實用」,可能是「不夠量化」,可能是「意識形態偏頗」,可能是「無法產生立即的經濟效益」。這些理由聽起來各有不同,本質上卻指向同一個方向,凡是難以被數字衡量的知識,都應該讓路。
這種思維方式在技術主義盛行的時代有其邏輯,當一個工程師能在幾秒內生成一份報告,當一個演算法能從海量資料中找出規律,我們確實很容易相信,人類真正需要的只是更快、更精準的工具。但工具本身不會問「這樣做對誰有利」,也不會追問「這個結果背後隱藏了什麼假設」。這些問題,恰恰是人文與社會科學存在的理由。
AI的發展速度已經遠遠超出了我們理解它的能力,我們知道語言模型每天處理數以億計的對話,我們知道使用者愈來愈傾向於把這些系統當成情感依附的對象,我們知道它們的輸出正在悄悄地塑造人們的信念與行為模式。但我們對這一切的「理解」,大多停留在工程層面,也就是模型的準確率、訓練資料的規模、推論的速度。至於這些系統如何改變人類的親密關係、如何影響心理健康、如何在不同的社會結構中造成截然不同的後果,這些問題得不到足夠的關注,也找不到足夠的研究資金。
更值得警惕的是,這個知識的缺口並非偶然形成,而是在特定的政治與經濟邏輯下被刻意拓寬的。當政府或企業對「有用的知識」給出狹窄的定義,那些揭示不平等、挑戰主流敘事、質疑技術樂觀主義的研究,自然會在資源分配中屢屢落敗。一個致力於描繪光明前景的政治環境,不可能同時容納一個誠實追問陰影的學術傳統。這兩者之間存在著根本性的張力,而在這場張力之中,往往是學術讓步。
問題的核心還不只是學術資源的分配,更根本的危機在於,我們正在培養出一整個世代,他們習慣了使用強大的工具,卻沒有學過如何批判這些工具。他們知道如何向語言模型提問,卻不一定能辨識出答案中嵌入的偏見。他們能夠操作複雜的介面,卻可能從未被訓練去思考這個介面的設計是否服務了某些特定的利益。技術能力的提升,在沒有人文素養作為對照的情況下,只會讓人更容易被技術所馴服,而非更有能力去駕馭它。
這種迴避帶來的後果已經可見,在某些地方,AI驅動的資訊環境正在以空前的效率放大社會既有的裂痕,使偏見與歧視更加難以察覺,卻更容易複製與傳播。對這個現象的研究,本來應該由具備深厚社會科學訓練的學者來主導,但這樣的學者正在逐漸消失,或者被迫用「可量化的影響力」來包裝自己的研究,才能在審查中存活下來。結果我們面對的是一個詭異的處境,恰恰在我們最需要批判性思考的時刻,培育批判性思考的土壤卻正在被系統性地剷除。
AI愈來愈像是某種自然法則,無所不在,難以質疑,似乎比任何人類的判斷都更客觀、更可靠。但AI不是天生的,它是被設計出來的,設計者有動機,有盲點,有他們置身其中的社會脈絡。讓AI成為唯一的法則,意味著讓設計者的動機與盲點在沒有監督的情況下無限擴散。這才是真正的危機所在,而它需要的解方,不是更好的演算法,而是更多願意、也有能力問出困難問題的人。
*作者為台北商業大學榮譽講座教授。 (相關報導: 面臨少子化關校!台灣2私校爆「評鑑當掉教師」省成本 不及格率竟達7成 | 更多文章 )












































