行政院院會日前通過《人工智慧基本法》草案,標誌台灣正式踏入AI治理的法律時代。人工智慧技術與應用的興起,不僅是國家競爭力的新引擎,更關乎社會秩序與民主信任。
制定AI基本法,目的在於建立發展與管制的平衡:一方面要積極促進創新,協助企業在全球科技版圖中不落人後;另一方面則需確保AI不會成為詐騙、假訊息或壟斷的幫兇,更不能侵蝕公民的隱私與人權。
放眼國際,歐盟的《AI法案》、美國的AI權利法案藍圖、日本《AI促進法》、英國的AI監管白皮書,皆已展開治理實驗。若台灣缺乏制度性框架,勢必難以與國際接軌,在貿易往來中被動承擔他國規範。故立法本身確實必要且正當。
行政院提出的草案,兼顧價值宣示與政策推進。其內容首先在理念層面要求AI發展必須遵循隱私保護、人權尊重、透明可解釋性等原則,並明訂應避免不必要的個資蒐集,呼應國際趨勢。
其次,在制度設計上採取「風險分級」模式,授權數位發展部參考國際標準建立框架,再由各部會制定配套的作用法。對於高風險AI明訂明確責任歸屬,並建立救濟、賠償或保險制度,讓社會在使用AI過程中多一層保障。
同時,草案高度重視產業推動,要求政府以補助、稅務優惠、金融支持等方式鼓勵研發,並設置「AI創新實驗沙盒」,容許新技術在有限放寬監管下測試,避免創新被過早扼殺。草案也明確將人才培育與全民AI素養教育納入國家責任,並要求政府建立偵測與防護機制,對抗深偽詐騙與假訊息。
整體而言,草案在原則、制度與產業支持三方面皆有設計,體現台灣對人工智慧治理的企圖心,值得肯定。然而若與國際比較,行政院版本仍顯不足,至少有五項缺口:
首先,在隱私保障上,草案僅強調「預設隱私」,卻未如歐盟賦予個人對自動化決策的拒絕權或解釋權,對於AI時代巨量資料運算的挑戰仍顯力道不足。
其次,責任歸屬規範仍嫌籠統,草案雖要求高風險AI須明確歸責,但未提出標準或舉證規則,實務上恐難落實。
三、透明度義務不夠,草案僅宣示「透明可解釋」,卻未強制聊天機器人自我標示,或要求生成內容標記水印,與歐盟明確的強制規範相比仍差一截。
四、對於深偽與詐騙,雖已修法增訂刑責,但缺乏統一標示制度與跨境追溯機制。在犯罪防制上,並未要求規範警方或執法單位如何使用AI進行監控,缺乏邊界恐衝擊人權。
五、對國際大型科技平台壟斷問題著墨不足,僅依現有公平交易法處理,未如歐盟以《數位市場法》與英國CMA的前瞻調查設計,對本土產業競爭保護仍嫌薄弱。
行政院版《人工智慧基本法》是人工智慧治理上的重要起點,但若僅止於原則宣示,後續缺乏細則落實,恐難發揮應有效果。
未來立法院審議時,應把握三方向補強:一、引進更明確隱私與透明度義務,保障公民在AI時代的基本權利;二、建立具體可操作的責任歸屬與補償機制,避免AI事故成為「責任真空」;三、強化監理整合與國際接軌,避免陷入制度碎片化或落後於國際規範。
唯有如此,「人工智慧基本法」才能真正兼顧創新發展、社會信任與國際競爭力,造福全民,不致淪為另一張華而不實的政策藍圖。
*作者為中華大學兼任講座教授 (相關報導: 觀點投書:建立法制以開放未來─從《人工智慧基本法》開始AI國力的形塑 | 更多文章 )






















































