「科技最深的危險,不在於它的功能,而在於它讓人們忘記自己本該是思考者。」—— 卡爾・雅斯培(Karl Jaspers)
晚近,生成式人工智慧(Generative AI)以驚人速度擴散至社會各層面,「AI識讀」(AI literacy)也從過去的教育邊陲議題,快速轉化為民主制度存續的核心變項。這不僅關係到工具理性的運用,更觸及政治主體性、生存權與語言主權等深層的制度倫理問題。
在這場「準科技革命」的表象背後,最值得警惕的並非人工智慧自身的複雜運算,而是它所建構的一種「知情的幻覺」(the illusion of being informed)。當我們的資訊來源逐步被演算法決定,當我們的信念與偏好被機器學習模型預測與強化,民主制度中「知情選擇」的基石正面臨前所未有的侵蝕。這場隱形的侵蝕既不易察覺也難以測量,卻足以動搖當代民主的根本基礎。
事實上,歷史案例早已預示這場危機的輪廓。2018年,Cambridge Analytica 透過AI驅動的心理側寫技術,在全球多國選舉中進行特定對象的資訊操控與干預。如今,像 ChatGPT、Gemini 與DeepSeek等生成式AI平台,更進一步將資訊生產自動化、海量化,以及語言操控大眾化、全面化。這些系統不再只是工具,而逐漸成為語言的創造者與現實的敘述者。在這樣的語境下,若公民無法理解AI文本的生成邏輯與其潛在的隱含偏誤,那麼他們的選擇將建立在「偽知情」之上,從而陷入民主的虛構。
因此,我們必須重新定義AI識讀的意涵。它不應只限於操作介面的熟練或科技術語的認識,而應視為一種新的公民能力:理解演算法邏輯、識別資訊偏誤、察覺倫理風險的能力,以及參與AI治理的批判意識。這種識讀能力,實則是一種21世紀的文化免疫系統——在演算法的操控中保有批判距離,在語言的重構中維繫人類判準。在相當程度上,這是一場為了捍衛選擇權與現實感的公民試煉。
布魯金斯研究所(Brookings Institution)在2023年曾提出警告:AI識讀將是未來十年「民主韌性」的關鍵因素之一。過去,我們論及數位落差,大都聚焦在硬體與網路的可及性;而今,AI時代的落差則轉向語義與語境層面的不對等。技術與語言的壟斷,使知識權力集中於少數平台與資本菁英之手,將公眾排除於資訊主權與語言生成的決策之外。在這樣的語境中,無法反思的群體不僅是失語,更是失權。
究實而論,這是一場權力的重構,而非單純的技術革新。從Cambridge Analytica的心理操控,到今日大型語言模型(LLM)所輸出的「可信卻潛在偏誤」文本,民主語境中的資訊治理早已脫離公共監督,甚或淪為演算法資本與政治工程的雙重工具。當演算法成為社會敘事的編劇,民主將陷入語言的迷宮,而選擇權也將僅是被預設的幻象而已。
因此,面對這場迫切而系統性的制度危機,我們亟需建構三重民主防線: (相關報導: 杜紫宸觀點: 人工智慧顛覆白領工作,你真的準備好了嗎? | 更多文章 )
其一,制度整合與演算法審計。AI識讀應納入公共治理架構,平台需揭露模型邏輯、建立風險分級機制,並接受獨立機構進行偏誤與倫理審計。例如,2025年,歐盟正式實施《人工智慧法案》(EU AI Act),針對高風險系統推動透明化與跨國監理;聯合國教科文組織(UNESCO)則透過《人工智慧倫理建議書》要求各國將人權、公平與社會正義納入技術政策架構。






















































