FLI是什麼來頭?
「生命未來研究所」(Future of Life Institute,簡稱FLI)是位於美國波士頓的研究機構,致力於降低人類面臨的全球災難與生存風險,尤其是AI研發過程所帶來的可能風險。FLI創立於2014年3月,創始人包括麻省理工學院的宇宙學家泰格馬克(Max Tegmark)、Skype聯合創始人塔林(Jaan Tallinn)、DeepMind科學家克拉科夫那(Viktoriya Krakovna)等人,特斯拉創辦人馬斯克(Elon Musk)與物理學家史蒂芬・霍金(Stephen Hawking)則在該研究所擔任顧問。
以《人類大歷史》、《人類大命運》、《21世紀的21堂課》等著作聞名的以色列歷史學者哈拉瑞,這次也參與了生命未來研究所的「叫停AI實驗」公開信連署。雖然這封公開信的連署網站只能留下姓名、無法留下任何意見,不過哈拉瑞24日在《紐約時報》的社論版對頁(Op-Ed)撰寫特稿〈你可以吃藍色藥丸或紅色藥丸,但我們沒有藍色藥丸了〉(You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills)裡,確實表達了對人工智慧的憂心。
在這篇哈拉瑞與另外兩名科技公司創辦人(Tristan Harris與Aza Raskin)合寫的文章中,三位作者引述2022年針對700多位AI研發人員與頂尖學者的問卷調查結果,有超過半數的受訪者認為,AI導致人類滅絕(或者導致類似嚴重性的事件)的可能性超過10%。文章開頭作者們使用了一個更為形象的提問:如果你登上一架飛機,製造飛機的工程師有半數認為,該架飛機有10%的機率墜毀,機上的所有人將因此罹難—你還會登機嗎?

哈拉瑞與另外兩位作者認為,當前研發聊天機器人的AI公司,相當於已經讓全人類登上了那架可能有問題的飛機。既然製藥公司應該先確保藥品安全才能對市場銷售新藥,GPT-4甚至功能更強的AI系統就不應該貪快,在確保人類社會能夠與其安全共處的情況下,就與數十億人的生活深度關聯。人類目前仍難以掌握GPT-4與類似AI系統的新能力,更不用說這些新工具正以指數級的驚人速度持續進化。
哈拉瑞等人指出,原本AI對人類來說只是一個遙遠的未來,更多地屬於科幻小說而非嚴肅的政治或科學辯論。但最近以語言生成(無論是文字、聲音還是圖像)為中心的AI系統,顯然讓人工智慧碰觸到了人類文明的核心。因為語言正是人類文化的操作系統,神話與法律、神與金錢、藝術與科學、友誼國家與程式碼,都是從語言中誕生。因此AI對語言的掌握,意味著它已經可以破解文明的操作系統。通過對語言的掌握,AI抓住了通往人類文明的萬能鑰匙,從銀行金庫到聖墓無所不通。 (相關報導: TikTok永遠改變社群媒體!《經濟學人》:競爭對手被迫採用利潤較低的模式 | 更多文章 )
在短時間內生成大量高品質文本,這是ChatGPT等生成式AI的核心本事。但哈拉瑞等人問了一個問題:如果人類生活在一個大部分故事、旋律、圖像、法律、政策都是由AI創造的世界中,這意味著什麼?三位作者給的悲觀答案是:AI將迅速吞噬整個人類文化——我們數千年來所生產的一切——對其徹底消化、然後湧現出大量新的文化產品。不僅僅是學校裡的論文,還包括政治演說、意識形態宣言、甚至是新邪教的聖經—到了2028年,美國總統甚至不會再由人類競選。























































