中共的言論審查,可能形塑人工智慧生成內容的未來

2023-03-22 12:00

? 人氣

這項威脅並非只是假想而已,網路安全公司Graphika本月發布報告,指出一項與中國政權有關的假訊息活動,已經運用了由人工智慧生成的假造人像;Graphika指出,這是國家行動者使用這項科技的第一起案例。這波活動使用了虛構的媒體《狼新聞》(Wolf News),主播有男有女,「報導」與中共宣傳敘事相符的新聞,主題包含美國的槍枝暴力問題以及美中關係;這些影片進一步由一些被稱為「垃圾郵件龍」(Spamouflage)的帳號群組轉發,這個群組與中國有關,Graphika已經追蹤多年,已經披露其為親中共假消息的常見來源。Graphika表示,研究者本來以為這些主播是拿錢辦事,但後來追蹤來源,發現來自一個販賣商用人工智慧生成假人像的英國網站,其服務通常是用於廣告。

[啟動LINE推播] 每日重大新聞通知

這些影片的觀賞數偏低,而且英文使用有嚴重錯誤,但Graphika指出,若能結合「假人像影片」與「更好的腳本」,可以帶來更有說服力、更有效的內容,而更好的腳本則可以由ChatGPT這樣的自然語言系統生成。

亟需公開透明

中國的審查體系最大的特色就在於不透明,我們對於審查機器如何運作的理解,多半來自外洩的審查指示、前員工的證言、現任員工向媒體匿名陳述,以及前文引用的那一類外部研究與調查。許多國際科技公司的透明度已經有限,但中國的科技公司,對於其產品和服務(包含人工智慧生成的應用)如何運作、內容又如何受到控管,通常更加不公開,比如,百度的ERNIE-ViLG文圖生成器,並未公開說明內容控管政策,而DALL-E和Stable Diffusion這兩個國際性的文圖生成器則有。

既然人工智慧明顯可能被濫用,向中國科技公司施壓,要求更為公開透明,都將會是對使用者有利的作為;這些公司在國際上的競爭者,在研發和運用新的人工智慧生成工具時,應該將強而有力的人權相關原則納入考量,並且設下透明與可課責性的國際高標準。在此同時,我們也相當需要各種獨立調查和嚴謹測試,來偵測並了解親中共的內容操縱,藉以讓使用者得到相關資訊,並且協助創造對「表達自由」和「訊息多元性」的保護機制。

而這些努力,也很可能仰賴人工智慧科技的協助──這或許告訴我們,時代真的不一樣了。

薩拉・庫克是自由之家中國、香港和台灣的資深研究員

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章