楔子
當代民主的「系統性症狀」,極化、失靈、信任崩解等現象日益嚴重時,與此同時,另一場現代革命的腳步聲反而愈發清晰,人工智慧快速滲透入所有領域而且取代許多工作。於是,一個很直覺的問題被提出:當民主「生病」時,AI 能否成為它的解藥?2026年1月27日民主基金會委託台灣量子電腦暨資訊科技協會舉辦一場AI與人類的辯論賽,題目是:「人工智慧對於民主治理利大於弊?」,也是企圖探尋在民主病狀逐漸顯著之時,是否可以借助現代科技工具的協助來修補與治療?然而,這個提問本身可能就隱藏著最危險的假設,在於我們相信科技手術刀,可以修補一個本質上關乎政治、人性與共同生活的缺失。但修補的關鍵在於我們是否真正理解:民主究竟是什麼,以及它為何陷入困境。
這場在 2026 的首場人機民主辯論賽除了新奇外,也引發與會者的憂心並紛紛指出,AI 雖帶來治理創新,卻也因資訊操弄與複雜性挑戰著民主韌性。辯論過程中更揭示了技術與政治實務的本質鴻溝:AI 雖具備強大的資訊彙整力,但在對壘中卻因「過於誠實」而顯得布局不足,缺乏撼動對手的政治氣勢與修辭張力。這種邏輯上的誠實,反而映照出 AI 無法掌握民主對話中那種關乎權力、情感與價值取向的動態博弈。這場辯論不只是技術測試,更是一個冷峻的提醒:當我們試圖用科技修補民主時,是否真正掌握民主「非理性」卻又神聖的人文本質?
一、理性的幻夢:AI 能否讓民主更「聰明」?
當民主開始失靈,常見的反應,是找一個更聰明的系統來接手。今天,這個系統叫做 AI。支持 AI 介入來協助民主程序的論述,通常建立在三個美好的理性願景之上。
願景一:超然的分析師,消除人類偏見。
人類決策受困於認知偏誤、資訊不對稱與情緒波動。理論上,AI 可以處理海量資訊,以一致標準分析所有選項,不受疲勞與偏見干擾。它能成為民主的「資訊篩檢器」,為公民清晰呈現政策的真實成本效益、不同群體的受影響程度,以及長短期利益的權衡。
願景二:政策的時光機,預覽未知後果。
民主決策最大的困境之一是「未知的後果」。AI 的複雜系統模擬能力,彷彿為集體選擇裝上了「預覽功能」,能在社會做出不可逆的決定前,展示不同政策路徑可能導向的未來圖景與風險分布。
願景三:共識的調諧器,探索複雜的疊加與糾纏區。
在高度分化的社會中,尋找共識愈發困難。AI 可以分析民意光譜中的疊加與糾纏區,找出能滿足多重約束條件的「最佳解空間」,協助設計漸進、可調適的可行政策路徑。不是利用AI來尋找唯一最優解,而是幫助人類看見「可能共識的形狀」。
這些願景指向一種誘人的可能:AI或許能改善民主的「前端品質」——整理資訊、輔助審議、呈現可能選項。然而,若我們期待 AI 直接「替民主做決定」,那便從根本上誤解了民主的本質。民主的核心從來不是數學上的最優解,而是在分歧與不確定中,大眾共同做出選擇並勇於承擔後果。AI可以是輔助理解的工具,卻永遠無法成為替代人成為政治判斷的主體。這同時也是深奧的哲學命題,誰能替人類決定人類的未來?
二、客觀的迷思:當民主生病時,AI是醫生還是鏡子?
在利用AI協助民主時,內部隱藏著第一個根本矛盾:AI 並非從天而降的禮物,而是人類開發出來的產物,它繼承了製造者的偏見與隨機,偏見造成主觀的施政,隨機放大民主的誤差。
偏見的數位繼承:
AI 系統的訓練數據,本身就鑲嵌著社會既有的不平等、歷史權力結構與文化偏見。語言模型內嵌主流世界觀,推薦算法強化現有的既定認知模式。當我們用 AI來「優化」民主時,很可能只是在用更高效率的技術,複製甚至固化既有的社會分歧。
一個經典案例是美國司法系統使用的COMPAS再犯風險評估系統。2016年ProPublica的調查研究發現,在佛羅里達州布勞沃德縣超過10,000名被告的資料分析中,COMPAS將非裔被告誤判為高再犯風險的比率,幾乎是白人被告的兩倍;相反的,白人被告則更容易被錯誤歸類為低風險,卻反而出現高比例的再次犯罪。諷刺的是,該系統在設計之初已特別要求「不得將種族納入考量」,卻因訓練資料源於長期存在種族差異的執法歷史數據,導致偏見被數位化繼承。此案仍凸顯了演算法偏見的核心問題——當訓練數據本身鑲嵌歷史歧視,『客觀』的AI反而可能複製不平等。
機率性的決策幻覺:
當前主流的 AI 模型本質上是基於機率分佈的預測機器,而非邏輯嚴密的推理主體。這種「機率性」在民主治理中會產生致命的穩定性問題:同一個政策議題,在微小的參數擾動下,AI 可能給出截然不同的「最優解」。這種內建的隨機性,不僅可能放大民主程序中的既有誤差,更讓政治決策缺乏一致性的「演算法博弈」。當政者若過度依賴 AI 的機率建議,實則是將嚴肅的責任倫理,交付給了隨機骰子,在機率的波動中漫遊。
最著名的案例是 2023 年美國的 Mata v. Avianca 案,律師使用 ChatGPT 準備辯護狀,結果 AI 卻在機率預測中編織了六個全然虛構的判例。這種「技術幻覺」若被引入政策模擬,將使民主治理基於虛擬數據,讓決策成為危險的賭博。
透明性的悖論:
區塊鏈與智能合約常被寄予厚望,認為能實現「完全透明、不可篡改」的民主,每張選票可追蹤,決策過程全記錄,合約自動執行。然而,透明性本身可能異化為新的壓迫工具:完全的投票透明可能催生報復性政治;決策過程的永久記錄,可能抑制必要的探索與對話。
近年區塊鏈投票的實驗結果,正說明了這種悖論。2018年莫斯科市三個選區嘗試使用以太坊區塊鏈進行投票,卻在選舉前夕因以太坊網絡的關鍵漏洞修復,導致投票數據與區塊鏈的連結失效;更荒謬的是,選舉結束後這個投票鏈因技術維護中斷而『事實上消失』,原先承諾的不可篡改性化為泡影。這個案例揭示:當我們追求「完全透明」的投票紀錄時,可能忽略了系統本身的安全性、可問責性,以及更根本的問題——誰來究責系統設計者?真正的問題不在於技術能否實現透明,而在於:我們需要何種透明?為了什麼目的?
近年來許多學生團體紛紛要求在各級校內會議中全程錄影,以滿足透明化的需求,然而這樣的透明過程會提高議事品質,或是變成情緒綁架,仍難定論。進步科技所催生出來的透明社會中的倫理與道德將如何衍化,都沒有答案之時,植根在這種透明基礎上的民主,可能就像失根的蘭花,無定型的隨風漂浮。
三、感性的荒漠:AI 能修復民主的情感撕裂嗎?
民主不僅是理性的計算,更是情感的連結、信任的建立與歸屬感的培養。然而,這常常正是 AI 的盲區。
情感的量化困境:
人類的政治情感是模糊、矛盾、情境依賴的,建立在非語言交流、歷史記憶與文化象徵之上。AI 擅長處理結構化數據,卻難以理解也無法重現那些難以被簡化成「支持度百分比」或「情緒分數」的深層紐帶。試圖用 AI「優化」情感互動,可能導致「用簡單可測量的數據取代複雜而重要的情感」。
信任的算法化危機:
民主運作的基石是信任——信任制度、信任代表、信任彼此。但 AI 系統的「黑箱」特性、模糊的責任歸屬(是開發者、使用者還是算法之過?),可能加劇「合法 vs. 算法」的新對立。AI 或許能提供效率與精準,卻難以提供社會團結所必需的合法性與正當性。
四、替代的陷阱:AI 能否接管人類的政治判斷?
這觸及了民主最核心的哲學問題:民主的終極目的究竟是什麼?
目的之一:集體智慧的「湧現」過程。
民主的價值不在於找到「最聰明的人」來統治,而在於創造條件,讓多元觀點在碰撞、消化與反思中,湧現出集體智慧與多元結果。這個過程需要時間、需要容錯空間、需要緩慢的醞釀。AI的快速優化與給出答案的傾向,可能恰恰「短路」了這個緩慢卻必要的生成與醞釀過程。
目的之二:共同承擔的責任倫理。
民主決策的深層價值,不僅在於「做出好決定」,更在於「共同承擔選擇的後果」。這種共同承擔培養公民責任感,增強社會凝聚力,為未來合作奠定基礎。如果決策被外包給 AI,當結果不佳時,我們該責怪誰?責任的分散可能導致責任的蒸發,瓦解民主的倫理根基。
目的之三:意義的共同創造。
政治不僅是解決問題,更是共同回答根本性意義問題的過程:我們想成為什麼樣的社會?我們珍視何種價值?我們願意為何種未來奮鬥?這些問題沒有客觀的「正確答案」,只有屬於群體的「共同答案」。AI可以幫助我們看清選項與後果,但不能也不應替我們選擇未來的價值與意義。
五、粒子民主的技術修補:針對「點」的精準優化
所謂「粒子民主」,指的是以定期選舉為核心、將民意視為離散「投票點」的傳統民主模式;而「波動民主」則強調民意如同波動,是連續、疊加、動態調諧的過程。然而當前的「粒子民主」的缺失不斷顯現,制度正面臨結構性壓力,AI 與相關現代技術能在哪些層面提供現實的修補?
修補一:從「低頻取樣」到「連續監測」。
傳統民主數年一次的「民意快照」已嚴重失真。AI 可實現即時民意脈搏監測、政策影響追蹤與社會情緒早期預警。但風險在於:監測極易滑向監控,反饋可能淪為操控。
修補二:從「二選一」到「光譜表達」。
AI 可以支持更複雜的投票機制,如偏好排序投票、議題分離投票、負數投票與強度加權投票。這些機制能更精細地捕捉民意中真實存在的「波動性」與「疊加態」,而非強迫其坍縮為粗糙的二元對立。
修補三:從「代議壟斷」到「多元參與」。
數位工具可降低參與的物理門檻,支持大規模在線審議、抽籤式公民議會、政策協同設計平台。然而,關鍵在於:技術降低的是「物理門檻」,而非「認知門檻」——真正的參與仍需時間、專注與判斷力,這些依然在現代社會是稀缺資源。智能合約等工具,更適合處理條件明確、爭議較小的事項,卻難以應對充滿價值衝突與情境變動的複雜治理。
六、波動民主的 AI 基礎設施:針對「場」的動態調諧
如果我們嚮往一個更適應量子社會的「粒子與波動民主」——政治除了定期選外也要有持續的調諧——AI 又可能扮演何種角色?
理想情境:作為「社會相位調諧器」。
在波動民主中,AI 或許可以可視化不同群體的「政治相位差」,模擬政策產生的「社會干涉圖樣」,並推薦能促生建設性干涉的調諧方案。其目標不只是「決定誰贏」,而且「幫助不同的社會聲波找到和諧共振的可能」。
現實挑戰:誰來控制調諧器?
這讓權力問題變得極度尖銳:誰來設定調諧的目標函數(是效率、公平還是穩定)?誰有權調整社會的「共振頻率」?當 AI 的調諧建議與人類的直覺或價值觀衝突時,最終聽從誰?最危險的或許不是 AI 失控,而是它過於「聽話」——完美地執行某一特定群體或意識形態的意志,從而終結了政治本身的大眾服務目的。
以老舊社區都更為例,傳統民主往往受困於「拆」與「不拆」的二元對立,形成劇烈的政治撕裂。若運用AI協助社福團體來進行「相位調諧」,技術不再只是統計贊成百分比,而是能將不同住戶的利益關切——如年輕家庭對安全托育的期待、高齡者對鄰里感與原址居住權的眷戀、店面持有者對施工期損失的擔憂——轉化為視覺化的「利益相位圖」。當 AI 模擬出這些需求的「相長干涉」區時,居民能清晰看見彼此利益的重疊點,例如:一個結合「分期開發」與「低層部社區照顧空間」的折衷方案。AI 的作用並非代替人類下指令,而是揭示出隱藏在衝突背後「可能共識的形狀」,將對立的政治雜訊,調諧成可以共同對話的社會聲波 。
七、同步的幻覺:AI可能加劇民主的時間困境
如同前面曾經提過,近代物理的相對論給予民主一個至關重要的啟示:社會永遠不存在絕對的「同時」。資訊傳播有速度上限,理解需要時間,不同社群與個體其實活在不同的「政治時區」。然而,AI 可能強化工業時代遺留的「同步幻覺」,並帶來三種時間扭曲。
在分析以下三種時間扭曲之前,必須先釐清一個前提:民主並非全然的「慢」,危機決策、行政裁量與緊急處分往往需要在極短時間內完成;相對地,AI也並非全然的「快」,大型語言模型的訓練與部署週期長達數月甚至數年,演算法的社會影響往往在漫長的時間尺度中才逐漸顯現。真正的問題不在於「快慢」本身,而在於誰掌握節奏的主導權——當AI加速了決策流程的「前端」過程,卻壓縮了民主審議所需的「中段」時間時,時間本身的政治矛盾便在此浮現。
即時性暴政:AI 使「即時反應」在技術上輕而易舉,但民主許多最重要的過程——審議、反思、價值權衡——本質上是「慢思考」。
預測性專制:高度準確的 AI 預測可能成為自我實現的預言,壓縮了未來本該有的開放性與偶然性。
效率性迷思:AI 優化的是可量化的效率,但民主過程中許多核心價值——如包容、正當性、歸屬感的培養——本質上是「低效」的。
政治的本質有時需要適度的隱晦與戰略性的模糊,以換取共識的空間;而 AI 絕對的邏輯誠實,反而可能在需要妥協的民主賽局中,成為一種技術性的僵化。如果 AI 讓我們能更快的做出更糟糕的決定時,這不是民主進步,而是退化。
八、AI 應作為民主的鏡子,而非手術刀
AI 不會,也不能「解決」民主的危機。因為民主危機本質上不是一個等待技術修復的工程學問題,而是在人的群體間的共識問題。然而,AI 可以成為一面無比清晰的鏡子,迫使我們凝視民主體制的深層矛盾:
當我們期待 AI 消除偏見時,我們先要承認自身難以克服偏見;
當我們設計複雜投票算法時,我們要重新追問「何謂公平的程序」;
當我們用 AI 模擬政策後果時,我們了解與面對自己無可推卸的集體責任。
AI 對民主最大的幫助,或許不是提供答案,而是迫使我們重新審視已被遺忘的根本問題。在一個如同量子般糾纏、相對不同步的複雜社會中,民主的未來需要的不是更聰明的算法,而是一種更謙卑的智慧——學會承認複雜性、擁抱不確定性、容忍必要的緩慢,並在技術提供的所有可能性中,始終清醒地追問:我們運用這些工具,究竟是為了實現何種共同的「美好生活」?
然而,凝視這些深層矛盾之後,我們需要更積極的行動。與其執著於AI能否「修補」一個預設完美的民主模型,不如思考:當AI正以前所未有的方式重塑人類的認知邊界、溝通網路與組織形態時,民主這個有機的政治體,是否也該啟動自身的演化?這不是一個單向的「技術解方」,而是一場深刻的「共演化」——民主的價值(如平等、參與、責任)將為AI的發展提供倫理羅盤,而AI的能力(如處理複雜性、視覺化多元觀點)則可能為民主開闢出我們從未想像過的實踐空間。
或許我們不該問AI能否修補民主,而是問:在AI重塑人類認知、溝通與組織方式的同時,民主能否也演化出新的波動形態,與科技共同面對未來的挑戰?這意味著,我們需要的不只是更聰明的算法,而是一種能夠吸納技術視角、同時堅守人文底蘊的「波粒二元共融」的政治智慧。
2026 年這場民主基金會與量子電腦暨資訊科技協會合辦的人機辯論的結果,或許給了我們最深刻的啟示:當 AI 因為過於誠實而顯得氣勢不足時,它其實是在提醒我們,民主的魅力與挑戰,往往存在於那些無法被算法邏輯窮盡的、屬於人的『非理性』堅持之中。
最終,民主的未來,不在於我們是否擁有更強大的 AI,
而在於我們是否仍願意,在分歧之中彼此承認對方是共同體的一部分。
民主的目的,從來不是為了讓決策變得更有效率,而是為了讓我們在不可避免的分歧中,依然能夠作為一個自由、平等、互助的共同體,持續對話,並一起前行。
而這個目的,沒有任何算法能夠代勞。
然而,當我們看清AI無法「修補」民主的病因之後,並不意味著我們只能退回原點。事實上,這個結論本身,正迫使我們重新提問:如果問題不在於「AI能否成為民主的手術刀」,那麼,我們是否可能換一個角度,不再追問AI能為民主做什麼,而是追問——在AI已深刻重塑人類認知與組織方式的今天,民主能否與AI發展出一種全新的「共生」關係?這正是本文下篇試圖展開的思考:從「修補」轉向「共治」,從「工具」轉向「夥伴」。 (相關報導: 張慶瑞觀點:從人性粒子門檻到量子波動相變─東方太極圖進入西方家徽 | 更多文章 )
*作者為台灣大學教授,曾任副校長。



















































