「AI風險已失控!」馬斯克、哈拉瑞、楊安澤等千名專家,為何呼籲暫停訓練GPT-5?

2023-03-29 17:20

? 人氣

《駭客任務》(The Matrix):虛擬現實世界的具象化(圖 / 取自 IMDB 官網)

《駭客任務》(The Matrix):虛擬現實世界的具象化(圖 / 取自 IMDB 官網)

生命未來研究所(Future of Life Institute)3月22日發布了一封公開信,呼籲所有人工智慧實驗室立即暫停比GPT-4更強大的AI訓練,因為能夠與人類競爭智慧的AI系統「可能對社會和全人類構成嚴重風險」。這封公開信上線不過一週,目前已獲特斯拉創辦人馬斯克(Elon Musk)、以色列知名學者哈拉瑞(Yuval Noah Harari)、圖靈獎得主班吉歐(Yoshua Bengio)、前進黨主席楊安澤(Andrew Yang)、蘋果聯合創始人瓦茲尼亞克(Steve Wozniak)等1125人連署。

這封公開信指出,高級AI可能代表地球生命史上的深刻變化,理應投注相應的關懷和資源進行規劃和管理。遺憾的是,這一點並未發生,而且最近幾個月全球的人工智慧實驗室已經陷入一場失控的競賽。他們雖然積極開發更強大的數位思維,但沒有人能夠理解、預測與控制相關發展—包括這些AI的研發者。當AI在一般任務中變得能夠與人類相互競爭,有幾個問題值得思索:

[啟動LINE推播] 每日重大新聞通知

我們是否該讓AI用宣傳和謊言充斥我們的訊息管道?我們是否該將所有工作自動化?我們是否應該發展最終可能超過取代我們的非人類思維?我們應該冒險失去對我們文明的控制嗎?這封公開信認為,這些問題的決定權不該交給非經選舉產生的技術領導者,唯有當我們確信AI具有積極的影響、且其風險屬於可控時,才可以繼續開發強大的AI系統。

ChatGPT。(美聯社)
ChatGPT。(美聯社)

OpenAI最近針對通用人工智慧曾發表聲明,強調「開始訓練未來系統之前,進行獨立審查可能非常重要」公開信認為這個時間點「就是現在」。因此公開信的作者呼籲所有人工智慧實驗室「立即暫停訓練比 GPT-4更強大的AI系統至少 6 個月,而且此次暫停應該是公開與可驗證的,如果不能迅速對於所有參與者實施這種暫停,政府就應當介入」。

公開信呼籲,所有人工智慧實驗室與相關專家應該利用這次暫停,共同開發用於高級人工智慧設計和開發的共享安全協議,並由外部專家獨立進行審與監督。這次暫停並不意味著永久停止研發AI,而是要從危險的競賽中後退一步,限制那些無法預測的研發,並且將強大AI的實驗與研究重新聚焦在準確、安全、可解釋、透明、穩健、值得信賴與忠誠。

人工智慧軟體AlphaGo與中國棋王柯潔(左)3盤對戰,AlphaGo大獲全勝(AP)
人工智慧軟體AlphaGo與中國棋王柯潔(左)3盤對戰,AlphaGo大獲全勝(AP)

公開信呼籲,人工智慧的開發者必須與政策制定者合作,建立針對強大AI的治理系統。這包括了針對AI的監管機構、監督與追蹤強大AI系統與具有強大運算能力的硬體、推出標明來源與浮水印系統協助區分真實和合成、界定AI造成傷害的責任、為AI安全研究提供公共資金、由資源充足的機構來應對AI可能造成的巨大經濟與政治破壞(尤其是對民主的破壞)。

這封公開信最後強調,人類確實可以享受AI創造的繁盛未來—成功創建強大的AI系統後,我們若要享受「AI之夏」帶來的成果與回報,就必須為所有人的利益設計這些系統,也給社會對其適應的機會。人類社會曾經叫停可能對社會造成災難性影響的科技,現在我們對AI也能這麼做。「讓我們享受一個漫長的AI盛夏,而不是毫無準備地進入秋天」。

FLI是什麼來頭?

「生命未來研究所」(Future of Life Institute,簡稱FLI)是位於美國波士頓的研究機構,致力於降低人類面臨的全球災難與生存風險,尤其是AI研發過程所帶來的可能風險。FLI創立於2014年3月,創始人包括麻省理工學院的宇宙學家泰格馬克(Max Tegmark)、Skype聯合創始人塔林(Jaan Tallinn)、DeepMind科學家克拉科夫那(Viktoriya Krakovna)等人,特斯拉創辦人馬斯克(Elon Musk)與物理學家史蒂芬・霍金(Stephen Hawking)則在該研究所擔任顧問。

以《人類大歷史》、《人類大命運》、《21世紀的21堂課》等著作聞名的以色列歷史學者哈拉瑞,這次也參與了生命未來研究所的「叫停AI實驗」公開信連署。雖然這封公開信的連署網站只能留下姓名、無法留下任何意見,不過哈拉瑞24日在《紐約時報》的社論版對頁(Op-Ed)撰寫特稿〈你可以吃藍色藥丸或紅色藥丸,但我們沒有藍色藥丸了〉(You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills)裡,確實表達了對人工智慧的憂心。

在這篇哈拉瑞與另外兩名科技公司創辦人(Tristan Harris與Aza Raskin)合寫的文章中,三位作者引述2022年針對700多位AI研發人員與頂尖學者的問卷調查結果,有超過半數的受訪者認為,AI導致人類滅絕(或者導致類似嚴重性的事件)的可能性超過10%。文章開頭作者們使用了一個更為形象的提問:如果你登上一架飛機,製造飛機的工程師有半數認為,該架飛機有10%的機率墜毀,機上的所有人將因此罹難—你還會登機嗎?

20180903-耶路撒冷希伯來大學歷史系教授哈拉瑞(Yuval Noah Harari)。(天下文化提供)
耶路撒冷希伯來大學歷史系教授哈拉瑞(Yuval Noah Harari)。(天下文化提供)

哈拉瑞與另外兩位作者認為,當前研發聊天機器人的AI公司,相當於已經讓全人類登上了那架可能有問題的飛機。既然製藥公司應該先確保藥品安全才能對市場銷售新藥,GPT-4甚至功能更強的AI系統就不應該貪快,在確保人類社會能夠與其安全共處的情況下,就與數十億人的生活深度關聯。人類目前仍難以掌握GPT-4與類似AI系統的新能力,更不用說這些新工具正以指數級的驚人速度持續進化

哈拉瑞等人指出,原本AI對人類來說只是一個遙遠的未來,更多地屬於科幻小說而非嚴肅的政治或科學辯論。但最近以語言生成(無論是文字、聲音還是圖像)為中心的AI系統,顯然讓人工智慧碰觸到了人類文明的核心。因為語言正是人類文化的操作系統,神話與法律、神與金錢、藝術與科學、友誼國家與程式碼,都是從語言中誕生。因此AI對語言的掌握,意味著它已經可以破解文明的操作系統。通過對語言的掌握,AI抓住了通往人類文明的萬能鑰匙,從銀行金庫到聖墓無所不通。

在短時間內生成大量高品質文本,這是ChatGPT等生成式AI的核心本事。但哈拉瑞等人問了一個問題:如果人類生活在一個大部分故事、旋律、圖像、法律、政策都是由AI創造的世界中,這意味著什麼?三位作者給的悲觀答案是:AI將迅速吞噬整個人類文化——我們數千年來所生產的一切——對其徹底消化、然後湧現出大量新的文化產品。不僅僅是學校裡的論文,還包括政治演說、意識形態宣言、甚至是新邪教的聖經—到了2028年,美國總統甚至不會再由人類競選。

2023年3月25日,美國前總統川普在德州小城韋科舉行了首場競選造勢活動。(美聯社)
2023年3月25日,美國前總統川普在德州小城韋科舉行了首場競選造勢活動。(美聯社)

三位作者指出,人類通常無法直接接觸真實、而是首先被文化所包圍,或者說,人類是通過文化稜鏡去體驗真實。我們的政治觀點是由記者撰寫的報導和朋友的軼事所塑造,我們的性偏好則受到藝術與宗教的影響。迄今為止,這種文化泡泡一直是其他人類的貢獻,人類數千年來也一直生活在其他人(包括先知、詩人或政治家)的夢想裡。要是通過AI產生的棱鏡來體驗真實,那又會是什麼感覺?

哈拉瑞等人認為,要是人類只能透過AI產生的文化稜鏡來體驗真實,那麼人類就只能活在AI的幻覺裡。《魔鬼終結者》讓機器人在街上殺人,《駭客任務》則讓機器人將人類大腦連結到一個更大的電腦網路裡,並且使其生成幻覺、加以操控。不過有了能夠掌握語言的強大AI,AI不用在街上奔跑殺人,也不用將人腦連接網路,只要告訴我們「正確的敘事」,AI就可以操控人類扣下板機。

目前已有逾20個國家呼籲全面禁止自主武器,科學家擔心科幻電影《魔鬼終結者》的情節將在現實世界上演(美聯社)
目前已有逾20個國家呼籲全面禁止自主武器,科學家擔心科幻電影《魔鬼終結者》的情節將在現實世界上演(美聯社)

人類將被迫面對笛卡爾的惡魔或柏拉圖的洞穴,幻想的帷幕可能籠罩整個人類,我們甚至永遠無法揭開那面帷幕——甚至無法意識到它的存在。AI這幾年在管理社群媒體時,雖然沒有直接生成內容,而是透過演算法選擇讓哪些文字、聲音與圖像被我們所接觸—因為這些內容能夠獲得最驚人的病毒式傳播、獲取最廣泛的按讚、回應與分享,但社群媒體後的AI已經足以製造幻覺的帷幕,加劇社會極化、傷害使用者的心理健康、甚至瓦解民主。

三位作者指出,每個人如今都意識到社群媒體的缺點,但相關問題並未得到解決,因為我們的社會、經濟和政治機構,大部分都已經跟社群媒體緊密相關。如今紅透半邊天的大型語言模型,則是人類與AI的第二次接觸。哈拉瑞等人強調「我們不能再輸」,因為如果一切照舊,新出現的AI將再次被用來攫取利潤與權力。在我們過度依賴AI之前,現在正是反思AI的最佳時機。尤其民主就是對話,對話則仰賴語言,當語言本身遭到駭客入侵,對話隨之破局,民主也就站不住腳。如果坐等混亂接踵而至,我們再行補救就來不及了。

哈拉瑞在這篇文章中並未提出具體的應對之道,三位作者只是強調,即便AI能夠協助人類戰勝癌症、為我們的氣候與能源危機找出解答,但AI如果摧毀了人類文明的基礎,那麼AI能蓋出多高的摩天大樓都將無關緊要。因此當前的重點該是讓AI上帝般的力量得到控制、並且負起相應責任,各國領導人都應挺身面對挑戰,爭取時間將人類社會的老舊體制加以升級,在AI控制我們之前先一步控制AI。

本篇文章共 1 人贊助,累積贊助金額 $ 45

喜歡這篇文章嗎?

李忠謙喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章