從馬斯克、APPLE創辦人到AI教父,為什麼美國科技大咖都害怕AI失控?

2023-05-03 11:20

? 人氣

特斯拉創辦人馬斯克呼籲暫緩AI研發的一番話,震撼美國各界。(美聯社)

特斯拉創辦人馬斯克呼籲暫緩AI研發的一番話,震撼美國各界。(美聯社)

人工智慧(Artificial Intelligence, AI)狂潮席捲科技業及全球市場,這兩年,生成式聊天機器人ChatGPT、智能繪圖程式Midjourney等應用大肆霸佔社群話題;同時還有各式各樣的AI助手、輔助小工具如雨後春筍般冒出,更別提商業、製造、金融、公部門等領域,早已陸續採用AI技術,可以說人工智慧已悄悄改變社會的樣貌,走向新的紀元。正如《AI世代與我們的未來》一書提及,過去人類用科學理性、反思與驗證能力來認識世界,當代人則是學會用AI輔助整理海量數據資訊,直接找到下一步的解答,尋求知識的邏輯與方法已和過去大相逕庭。AI不只是全盤翻轉人類工作與生活的技術面,就連未來世界的走向,AI都成為重要的影響因子。

[啟動LINE推播] 每日重大新聞通知

正是因為AI如此重要且潛力無限,站在「奇異點」(編按:指現有已知全部科技被完全顛覆的時間點)的我們,不只要善用此項蓬勃進步中的技術,更應該找到與其相處之道,以免AI發展意外超出控制,最終像無數部科幻電影的結局那般引火自焚。

今年三月,非營利組織Future of Life Institute發表一封公開信「暫停大型AI實驗(Pause Giant AI Experiments)」獲得科技巨擘馬斯克(Elon Musk)、蘋果共同創辦人史蒂夫·沃茲尼克(Steve Wozniak)等重量級人物連署。此公開信內容指出,AI恐成為眾科技巨頭間的失控競賽,建議應該在人類做好充分準備且風險可控的狀況下,才能繼續開發這樣強大的技術。最後一干知名人物更呼籲所有實驗室應該暫停訓練比GPT-4更強大的AI、至少暫停6個月,並且須著手討論具共識的安全協議及治理方針。這封公開信一發表,馬上站上輿論浪尖!

無獨有偶,耗費多年在AI原始架構開發的資深工程師辛頓(Geoffrey Hinton),也在五月一日宣布辭去Google職務,而且他表明,辭去工作的理由正是對AI發展日益憂心。這位業界「教父」級人物對紐約時報直言,「AI的高速進展對人類造成極大風險,所以科學家在確認AI完全可受控制之前,不應該繼續擴大研發下去」。這番警示意味十足的良心告白,又一次震撼了世界。

從馬斯克、沃茲尼克到辛頓,世界上名號響叮噹的大咖們竟然集體對科技進展憂心忡忡,這是否意味著當人類擁抱AI技術的同時,目前只有很少人認真想到安全問題,至於該如何有效監管「它」,顯然是更加棘手的社會問題。

義大利開第一槍:為何威脅禁用ChatGPT?

儘管AI技術已經引發各國政府積極討論監管對策,但義大利在今年三月底先開出了強硬的第一槍—該國數據保護局(GDPR)決定要求OpenAI限期20天內要解決隱私風險,否則將禁止ChatGPT在義大利境內的使用。

義大利政府認為,開發ChatGPT的公司OpenAI在大量搜集用戶數據來訓練模型時,缺乏用戶同意及法律根據,另外,OpenAI也曾發生過洩漏用戶信用卡末四碼卡號、看到其他用戶的聊天標題記錄等事件,都讓大眾對OpenAI的資安控管能力產生疑慮。義大利是基於防範隱私疑慮及數據外洩風險,才會發出這個警告。直到上月底義大利政府聲明,確認OpenAI符合隱私法規,才讓它重新對義大利人民開放。不過有趣的是,發表禁令期間義大利地區用Google 搜尋 「VPN」的趨勢大增,顯示網友「翻牆」也要繼續使用ChatGPT!

義大利政府對AI態度明顯趨向嚴格已不是頭一遭。今年二月,義大利一樣出於隱私保護因素,禁了另一款來自美國的虛擬陪伴聊天機器人Replika搜集用戶數據,原因是這款應用違反了歐盟通用資料保護規則(GDPR)。

其實,歐盟早在2021年就提出討論AI技術監管的相關法案,其他西方國家如德國、法國、愛爾蘭也開始針對此議題進行法律討論,不過政策制定的速度總會跑輸技術發展。這也引發大家省思AI技術的缺點——《經濟學人》早就說過數據是新時代的石油(The world's most valuable resource is no longer oil, but data.),在數據的戰略地位越發重要之際,以後「保護個資」會不會只淪為口號,根本無法實際做到呢?

數據所有權成為另類金礦

AI技術恐導致個資外洩,是個需要高度重視的問題。因為ChatGPT是經由爬梳大量網路上的網站、貼文、文章資料,來提供模擬人類的真實且具參考性的對話。若在政策落地之前,擁有用戶數據及內容的平台搶先保障自己的權益,或者說利益,以免白白幫助像OpenAI的公司發展,自己卻錯失大賺一筆的機會,這是經濟學的合理選擇,但要如何兼顧用戶隱私?實在仍看不到明確保障的辦法。

比如美國知名論壇Reddit在今年四月公開表示,Reddit文本庫內存的大量用戶真實貼文、留言討論,是對AI擴充學習相當有幫助的寶貴資料,為了不讓AI技術公司白白使用這些資源,Reddit將在今年六月推出存取該API的付費方案,日後相關技術團隊若為了訓練AI而想要取得Reddit的內容資料,就得乖乖付錢了!

另外,馬斯克也在4月20日推文,指控微軟(Microsoft)曾非法使用Twitter的數據來訓練AI模型。雖然到截稿為止,還沒有馬斯克真的提告的跡象,不過這也讓人開始重視:未來各大平台的資料所有權,會成為AI機器訓練的新戰場,對平台公司自身而言則是一大獲利機會,數據為王的世代儼然來臨。

馬斯克轉發微軟想停止旗下廣告平台上對推特做技術支援的新聞,並說想要反告微軟非法使用推特數據(圖片來源:推特)
馬斯克轉發微軟想停止旗下廣告平台上對推特做技術支援的新聞,並說想要反告微軟非法使用推特數據(圖片來源:推特)

除了隱私疑慮外,AI還有什麼倫理難題?

AI應用目前處於眾聲喧嘩、野蠻生長的十字路口。用戶隱私是一個大難題,但還有許多的AI難題等著我們去思索、取得共識及管理它。

例如ChatGPT的便利性不只能夠幫助人類更快、更有效率的完成工作,也很可能成為不肖之徒的利用工具。根據外媒報導,利用ChatGPT寫釣魚電子信件、惡意程式碼都是輕而易舉的事情。雖然ChatGPT有被設定不能回答惡意問題,但經過資安機構 Abnormal Security測試,實證顯示,用戶只要懂得將指令「換句話說」,一樣可以達到目的。

當然,AI技術也可以被應用在掃描系統漏洞後自動攻擊的駭客事件中,讓網路攻擊的門檻越來越低。不過,NVIDIA安全長David Reber 也公開表示,AI其實對資安也有正面意義,那就是可以訓練自家AI抵抗來自AI的資訊攻擊、辨識惡意威脅,並且還可以用「欺騙」戰術,誤導對方駭客AI去攻擊假目標,以達到保護重要資料的目的。AI只是成為資安的新工具,但怎麼靈活變通、玩出新招還是端看企業與駭客的應用了。

除此之外,餵養大量、缺乏適當過濾解讀的網路資料,會不會導致AI向人類「學壞」,引發「AI歧視」?以及AI的創造物(例如:文章、劇本、繪畫)是否能被用智慧財產權所保護?這些眾多的延伸倫理問題,都是需要社會與企業盡快取得共識、公權力出手監管的範圍。


作者來自NCCU,從科技媒體到數位行銷,這輩子應該離不開網路圈。其他作品詳見個人Medium

責任編輯/周岐原

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章