華爾街日報》全球領導人在AI峰會警告:當心科幻小說預言的災難成真

2023-11-06 11:00

? 人氣

西方官員和行業高管認為,中國參與此次峰會是件值得注意的事,因為一些人擔心AI可能會變成世界超級大國之間軍備競賽的一部分。

[啟動LINE推播] 每日重大新聞通知

英國首相蘇納克(Rishi Sunak)在兩週前的一次演講中說:「如果不至少嘗試讓全球所有領先的AI大國參與進來,就不可能產生嚴肅的AI戰略。」

中國科學技術部副部長吳朝暉在這次峰會的開幕式上說,中國支持國際社會建立AI測試和評估系統的工作。

長期以來,機器無所不能帶來的AI末日論威脅一直是流行文化中令人著迷的議題。但自從OpenAI的ChatGPT問世以來,這也成為了一個爭論話題,即決策者應確定哪些優先事項。ChatGPT展示了這項新技術令人不可思議的能力,對幾乎任何主題的問題都能給出似乎可信又表述流暢的答案。

賀錦麗在上周三的一次演講中說,專家們應該擴大對AI安全的定義,關注更廣泛的風險,包括她所說的已經存在的社會危害,比如偏見、歧視或傳播錯誤資訊的能力。本周早些時候簽署的一項美國行政命令針對了其中的幾個問題,此次峰會的組織者上周三也提到了這些問題。

一些數位權利和工會組織也呼應了這些擔憂。這些組織上周一發表了一封公開信,對該峰會的優先事項提出了批評。

「這關係到你會不會被算法炒魷魚,或者會不會因為你的身份或郵編而被不公平地進行貸款分析,」信中寫道。「隨著少數幾家大型科技公司正在攫取更大權力和影響力,小企業和藝術家正在被擠出市場,創新正在被扼殺。」

與此同時,一些AI研究人員擔心他們所認為的AI會帶來的災難性風險,敦促決策者控制最先進AI系統的開發。

非營利組織未來生命研究所(Future of Life Institute)正在前述峰會上推動制定具有約束力的規則,以迫使公司證明其系統是安全的,不會面臨潛在的生存危險,而不是由政府監管機構務必證明一個系統存在威脅。未來生命研究所在春季組織了一封聯名信,呼籲暫停開發最先進AI系統六個月。

不過,麻省理工學院教授、未來生命研究所所長Max Tegmark在此次峰會前表示,他認為發表一份聲明就是一種進步。

他說,即使是一份僅僅承認AI系統存在真正風險的聯合聲明,也是個重大進步。

決策者的最佳夥伴

立即訂閱,即刻暢讀華爾街日報全文內容

並享有更佳的閱讀體驗

訂閱 每天只要10.9元 查看訂閱方案
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章