「我擔心生成式AI將左右一場勢均力敵的選戰。」
華盛頓大學教授、True Media 創始人/奧倫·埃齊奧尼(Oren Etzioni)
隨著生成式人工智慧的快速進展,人們除了讚嘆各種AI內容的細膩與擬真,許多專家也日益擔憂錯假訊息可能重傷民主。包括Google、Meta、微軟與OpenAI等20家科技業巨頭,日前在慕尼黑安全會議達成共識,同意遏制那些誤導選民的錯誤內容、更要打擊AI選舉過程中出現的AI「深度偽造」(deepfakes)圖像、影片語音檔。
英國《金融時報》指出,亞馬遜、Google、Meta、微軟、TikTok 和 OpenAI等20家科技巨頭16日在慕尼黑安全會議期間表示,他們將共同打擊旨在誤導選民的內容的創建和傳播。除了合作開發相關工具、根除AI生成的錯假內容的傳播,也承諾將以「迅速和適當」的方式採取行動。根據這些公司簽署的協議,人工智慧的快速發展確實為民主進程創造了新的機會與挑戰,但欺騙性內容的傳播卻也可能危及選舉進程的完整性。
Meta全球事務總裁克萊格(Nick Clegg)表示:「今年將舉行如此多的重大選舉,我們必須盡一切努力防止人們被AI生成的內容所欺騙。」他也強調這項工作不是任何一家公司可以應付,因此需要整個行業、政府和民間社會的共同努力。微軟副董事長兼總裁布拉德・史密斯(Brad Smith)也表示,該公司「有責任幫助確保這些工具不會在選舉中成為武器」。
《金融時報》稱,各國的立法者與專家確實對生成式AI日益擔憂,因為這個正在快速發展中的科技可能危及各國在今年舉行的選舉。Facebook、X和TikTok等社群媒體一直在審查與處理平台上的有害內容,人們對生成式AI的興趣也再次引發「科技將如何破壞選舉」的擔憂。許多美國新罕布夏州的選民上個月就接到一通「拜登打來的電話」,要求他們「不要參加初選投票」;在英國、印度、奈及利亞、蘇丹、衣索比亞和斯洛伐克,也出現許多AI製作的政客假影片。
根據這20家科技巨頭的協議,他們會在AI圖像中添加浮水印,標明出處以及相關圖像與內容是否已經遭到更改。這些公司也承諾對如何處理此類內容採取透明政策,也會評估其生成式AI模型(像是OpenAI的聊天機器人ChatGPT背後的模型),深入了解它們可能帶來的民主風險。谷歌月初就曾表示,他們正在準備推出顯示圖像創建方式的浮水印工具;Meta二月也表示,未來幾個月將為用戶發佈的AI生成圖像添加標籤。
法新社指出,能夠從簡單文字產出細膩影片的全新AI模型Sora,已經引發媒體專家的擔憂。史丹佛大學研究員西蒙(Basile Simon)擔心,此類生成式AI可能會在選舉期間遭到濫用,擔心民眾「不知道還能相信什麼」。法國電視台總編輯朱利安·帕恩(Julien Pain)也擔心人工智慧被濫用,「過去辨認假影像並不難,但新的AI技術讓這件事的難度跟過去完全不同」。朱利安·帕恩說,雖然美國的科技巨頭可能會為AI影像加上浮水印,「但中國與俄羅斯的對手們明天又會怎麼做呢?」
《紐約時報》也說,科技巨頭們的防偽工具或浮水印策略會有什麼效果,目前尚難論斷,畢竟生成式AI的產製內容已經模糊了事實與虛構的界線。除了科技業者的自律,美國的立法者也開始起草法案,試圖規範人工智慧產生的政治言論與內容。針對偽造成拜登聲線的「不要參與初選投票」假音訊,聯邦通訊委員會已經宣告這類電話違法,因為由AI生成的聲音在電話中誤導了選民與支持者。
True Media 創始人奧倫·埃齊奧尼(Oren Etzioni)對《紐約時報》表示,人工智慧的錯誤訊息和欺騙,可能會在舉行83場選舉的2024年對民主帶來毀滅性的影響。包括Anthrophic、Synthesia等人工智慧新創公司,也紛紛發表禁偽政策或技術。Anthrophic禁止將其技術應用於競選或政治遊說,目前也在研究如何避免該公司的聊天機器人Claude產出誤導性的錯誤內容;Synthesia也正在改進用於檢測技術濫用的系統,避免人工智慧模型產出虛假、極化、分裂或誤導性的素材。谷歌去年12月已經要求YouTube的創作者揭露所有經過數位修改或產生的內容,並且表示「與任何新興技術一樣,人工智慧帶來了新的機遇,也帶來了挑戰」、「我們正在針對錯誤訊息的挑戰做準備」。