「AI風險已失控!」馬斯克、哈拉瑞、楊安澤等千名專家,為何呼籲暫停訓練GPT-5?

2023-03-29 17:20

? 人氣

這封公開信最後強調,人類確實可以享受AI創造的繁盛未來—成功創建強大的AI系統後,我們若要享受「AI之夏」帶來的成果與回報,就必須為所有人的利益設計這些系統,也給社會對其適應的機會。人類社會曾經叫停可能對社會造成災難性影響的科技,現在我們對AI也能這麼做。「讓我們享受一個漫長的AI盛夏,而不是毫無準備地進入秋天」。

[啟動LINE推播] 每日重大新聞通知

FLI是什麼來頭?

「生命未來研究所」(Future of Life Institute,簡稱FLI)是位於美國波士頓的研究機構,致力於降低人類面臨的全球災難與生存風險,尤其是AI研發過程所帶來的可能風險。FLI創立於2014年3月,創始人包括麻省理工學院的宇宙學家泰格馬克(Max Tegmark)、Skype聯合創始人塔林(Jaan Tallinn)、DeepMind科學家克拉科夫那(Viktoriya Krakovna)等人,特斯拉創辦人馬斯克(Elon Musk)與物理學家史蒂芬・霍金(Stephen Hawking)則在該研究所擔任顧問。

以《人類大歷史》、《人類大命運》、《21世紀的21堂課》等著作聞名的以色列歷史學者哈拉瑞,這次也參與了生命未來研究所的「叫停AI實驗」公開信連署。雖然這封公開信的連署網站只能留下姓名、無法留下任何意見,不過哈拉瑞24日在《紐約時報》的社論版對頁(Op-Ed)撰寫特稿〈你可以吃藍色藥丸或紅色藥丸,但我們沒有藍色藥丸了〉(You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills)裡,確實表達了對人工智慧的憂心。

在這篇哈拉瑞與另外兩名科技公司創辦人(Tristan Harris與Aza Raskin)合寫的文章中,三位作者引述2022年針對700多位AI研發人員與頂尖學者的問卷調查結果,有超過半數的受訪者認為,AI導致人類滅絕(或者導致類似嚴重性的事件)的可能性超過10%。文章開頭作者們使用了一個更為形象的提問:如果你登上一架飛機,製造飛機的工程師有半數認為,該架飛機有10%的機率墜毀,機上的所有人將因此罹難—你還會登機嗎?

20180903-耶路撒冷希伯來大學歷史系教授哈拉瑞(Yuval Noah Harari)。(天下文化提供)
耶路撒冷希伯來大學歷史系教授哈拉瑞(Yuval Noah Harari)。(天下文化提供)

哈拉瑞與另外兩位作者認為,當前研發聊天機器人的AI公司,相當於已經讓全人類登上了那架可能有問題的飛機。既然製藥公司應該先確保藥品安全才能對市場銷售新藥,GPT-4甚至功能更強的AI系統就不應該貪快,在確保人類社會能夠與其安全共處的情況下,就與數十億人的生活深度關聯。人類目前仍難以掌握GPT-4與類似AI系統的新能力,更不用說這些新工具正以指數級的驚人速度持續進化

本篇文章共 1 人贊助,累積贊助金額 $ 45

喜歡這篇文章嗎?

李忠謙喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章