一文看懂全球首部《人工智慧法》:歐盟如何保護消費者、如何確保「真實」與「AI生成」的區分?

2024-03-18 17:04

? 人氣

OpenAI的聊天機器人ChatGPT是生成式人工智慧最具代表性的成果之一。(美聯社)

OpenAI的聊天機器人ChatGPT是生成式人工智慧最具代表性的成果之一。(美聯社)

隨著人工智慧(AI)技術在企業和消費者中的普及,AI對人類的潛在風險也引起了廣泛的討論。歐洲議會於13日通過了全球首套全面的《人工智慧法案》(AI Act),這標誌著監管AI技術邁出了重要的一步。該法案將根據風險程度來管理歐盟市場上的AI產品,確保科技公司推出遵守法律規範的AI產品。

[啟動LINE推播] 每日重大新聞通知

《AI法》的所有條文將在未來三年內逐步生效。最高風險的AI應用方式將於今年晚些時候開始被禁用,包括禁止在學校和工作場所使用情緒識別人工智慧系統,以及禁止擷取人臉圖像以建立人臉識別數據庫。其他規定則預計將在2025年至2027年期間逐步生效。

OpenAI開發的生成式人工智慧技術,讓世人見識到AI的威力。(美聯社)
OpenAI開發的生成式人工智慧技術,讓世人見識到AI的威力。(美聯社)

根據《衛報》(The Guardian)報導,年利達律師事務所(Linklaters)合夥人庫尼森(Guillaume Couneson)指出:「用戶將能夠相信他們所使用的AI工具已經過仔細審查並且可以安全使用,就像銀行應用程式的用戶能夠信任銀行已經採取嚴格的安全措施,使他們能夠安全地使用應用程式一樣。」

除了對歐盟約4.48億人口的影響,該法案可能在全球其他地區也產生重要影響。庫尼森補充說:「許多國家都將關注歐盟AI法案通過後的情況。只有在證明有效的情況下,其他地區才可能效仿歐盟的做法。」那麼,這個法案將如何保護消費者權益,並且科技公司對此有何看法?以下將為讀者介紹:

如何應對AI帶來的風險?

該法案禁止構成「不可接受風險」的AI應用方式,包括:

◆用於操縱他人的系統。

◆如中國根據居民個人特質或行為進行「評分」的社會信用評分系統。

◆利用科技預防犯罪的預測性警察活動(predictive policing)。

◆在工作場所或學校監控人們情緒的情緒監控系統。

◆基於生物特徵(例如視網膜掃描、人臉識別、指紋)對人們進行篩選以推斷種族、性取向、政治觀點或宗教信仰等方面的「生物特徵分類」系統。

◆通過從網路或監視器擷取人臉圖像來建立人臉識別數據庫的系統。

創造出ChatGPT的OpenAI。(美聯社)
創造出ChatGPT的OpenAI。(美聯社)

國安用途豁免

臉部識別技術是立法期間的一大爭議點。即時生物特徵識別系統(包括對現場人群的臉部識別技術)被禁止使用,但在某些情況下,執法機構可以這麼做。執法機構可運用此技術尋找失蹤人員或防止恐怖攻擊,但須經過當局批准。此外,在特殊情況下,甚至可在未經批准的情況下利用臉部識別技術。

由於豁免了針對軍事、防衛或國家安全用途的AI工具,這引起了許多科技安全倡導者的警惕。德國非營利組織Algorithmwatch的政策副主任菲特-迪特爾曼(Kilian Vieth-Ditlmann)表示:「我們擔心AI法案中的國家安全豁免條款給了成員國繞過重要AI規定並濫用權力的可能性。」

如何監管高風險但未被禁的AI應用?

根據該法,「高風險」AI應用必須受到嚴格監管。這些高風險的應用包括:

◆用於關鍵基礎設施,如水、氣和電力的AI系統。

◆部署在教育、就業雇用、醫療保健和金融銀行等領域的AI系統。

◆用於執法、司法和邊境管理的部分AI系統。

例如,用於判定某人是否被錄取到教育機構,或是否獲得某一工作的系統,將被視為高風險AI應用。

《AI法》要求高風險AI應用具備準確性,並受到風險評估和人工監督,同時也需要記錄其使用情況。歐盟公民還可以要求這些AI系統針對影響其權益的決策或判定提供解釋。

歐盟。(美聯社)
歐盟。(美聯社)

生成式AI受到哪些影響?

對於生成式人工智慧(Generative AI),將採取兩個層次的方法。第一層次針對侵權疑慮,除了開源模型不受版權要求限制之外,所有模型開發者都需要遵守歐盟版權法,並提供訓練模型所用素材內容的詳細摘要。然而,目前尚不清楚已經訓練並對公眾開放的模型,如ChatGPT的GPT-4,應如何符合這一要求。

許多科技公司都利用公開的網路素材來訓練其AI模型,但這可能會導致侵權問題。《紐約時報》(NYT)對OpenAI提起訴訟,指控該公司未經許可使用《紐時》新聞內容來訓練其AI模型,甚至模仿其風格寫新聞。而Getty Images則正在起訴StabilityAI侵犯版權,指控後者未經合法授權,就擅自「抓取」和處理數百萬受版權保護的圖像。

第二層次針對構成「系統風險」的模型,包括AI聊天機器人和圖像生成AI,以防止對使用者或社會造成嚴重危害。這將包括立即通報由AI產品引起的嚴重事故,如導致死亡或侵犯用戶基本權利等事件。此外也會對模型進行「對抗性測試」,即對AI系統進行壓力測試,透過欺騙或誤導AI系統,來測試系統對於具有挑戰性或不尋常的提示的回應能力,從而找出系統的潛在弱點或漏洞。

2024年2月22日,Google為AI聊天機器人Gemini 「不準確之處」道歉,並且暫時停止生成人物圖像的服務。(美聯社)
2024年2月22日,Google為AI聊天機器人Gemini 「不準確之處」道歉,並且暫時停止生成人物圖像的服務。(美聯社)

深度偽造技術受到哪些影響?

深度偽造(deepfakes)指的是由AI生成或操縱的圖像、音檔或影片,它們可能看起來像是真實的。使用深偽技術的個人、公司或公共機構,必須公開披露其內容是否為人工生成或操縱的偽造內容。即使是出於「顯然」的藝術、創意或諷刺目的而形成的作品,也需要以「不妨礙作品展示或欣賞的適當方式」清楚標註其「偽造」性質。

由聊天機器人生成的文字,如果是「關於公共利益事項」的公開資訊,則需要標註為AI生成;但如果經過人工審查或編輯控制等人為監督過程,則不需要標註。AI系統的開發者還需要確保產品輸出的文字或影像,可以被識別為由AI生成的,例如透過添加水印或其他註記來表明。

最近美國編劇工會罷工的其中一個原因,是擔憂影視工作室可能降級編劇,改為修改由AI生成的劇本。(AP)
最近美國編劇工會罷工的其中一個原因,是擔憂影視工作室可能降級編劇,改為修改由AI生成的劇本。(AP)

科技公司有哪些看法?

科技公司的看法各異。科技巨頭原則上公開支持這項立法,但對具體細節持保留態度。亞馬遜(Amazon)表示致力於與歐盟合作,「支持AI技術的安全、穩健和負責任發展」。祖克伯(Mark Zuckerberg)的Meta公司警告稱不要過度規範。該公司歐盟事務主管表示:「關鍵是我們不要忽略AI在推動歐洲創新和促進競爭方面的巨大潛力,開放性至關重要。」

檯面下有一些公司表達不滿。一位美國公司的高層人士警告說,歐盟設定了訓練AI模型所使用的計算能力上限,這一限制遠低於美國提出的類似建議。這種可能會促使歐洲公司改變業務運作地點,以避免受到歐盟的限制。

歐洲新聞台(Euronews)指出,對於新創企業和中小企業來說,這可能意味著更多的工作量。法國遊說團體France Digitale公共事務負責人表示:「我們擔心,這份法案將只會增加監管障礙,有利於美國和中國的競爭,並減少歐洲AI龍頭崛起的機會。」

2023年7月5日,在上海舉行的世界AI大會期間,一位民眾正在觀看中國生產的晶片組。(美聯社)
2023年7月5日,在上海舉行的世界AI大會期間,一位民眾正在觀看中國生產的晶片組。(美聯社)

該法規定了哪些處罰措施?

◆給監管機構提供不正確資訊的罰款範圍為750萬歐元(約新台幣2.6億元)或公司全球總營業額的1.5%,以較高者為準。

◆違反某些條款(例如透明度義務)的罰款為1500萬歐元(約新台幣5.2億元)或公司全球總營業額的3%。

◆部署或開發被禁止的AI工具的罰款為3500萬歐元(約新台幣12億元)或公司營業額的7%。

◆對於規模較小的公司和新創企業,罰款金額將根據公司的規模和負擔能力進行調整。

喜歡這篇文章嗎?

蔡娪嫣喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章