華爾街日報》有效利他主義是什麼?OpenAI的宮鬥劇與這種哲學思潮有何關係

2023-11-24 12:10

? 人氣

研究員Shazeda Ahmed在普林斯頓大學(Princeton University)領導一個研究該運動的團隊。Ahmed說,有效利他主義者對AI將毀滅人類的急劇恐懼,「影響了他們接受來自該文化以外的批評的能力」。Ahmed說:「對於所有試圖解決某個尖銳問題的群體來說,這肯定都不是好事。」

[啟動LINE推播] 每日重大新聞通知

OpenAI的動蕩揭露了矽谷的一場幕後較量,相信市場力量的人與認為道德、理性、數學和精巧的機器應該引領未來的有效利他主義者形成了對峙。

對這一運動的描述基於對50多位高管、研究人員、投資者、現任和前任有效利他主義者的採訪,以及有效利他主義領域的公開演講、學術論文和其他公開資料。

迴紋針惡作劇

去年秋天的一天,數以千計做成OpenAI徽標形狀的迴紋針出現在該公司舊金山辦公室。似乎沒有人知道它們來自何處,但每個人都知道它們意味著什麼。

迴紋針已成為AI潛在風險的一個象徵。這源於一種假想情境,涉及一個被告知要製造盡可能多迴紋針的AI系統可能為追求產量最大化而毀滅整個人類。

這個惡作劇是同城競爭對手Anthropic的一名員工所為,而Anthropic本身也受困於AI安全問題引發的分歧。

2021年初,OpenAI的頂級研究科學家Dario Amodei從公司離職,公司的幾位高管也加入了他的行列。他們創辦了Anthropic,這是一家對有效利他主義者友好的AI研究公司。

班克曼-弗里德曾是Anthropic最大的投資者之一,並支持該公司的使命,即更看重AI的安全性,而非成長和利潤。

對未來AI系統的恐懼並沒有阻止那些擔心安全的人嘗試建立通用人工智慧(AGI),這是一種與人腦相媲美或超越人腦的先進系統。

去年12月,在OpenAI的節日派對上,Sutskever在舊金山加州科學館(California Academy of Science)向數百名員工和嘉賓發表了講話。 那裡離科學館的斑馬、羚羊和獅子填充模型不遠。

首席科學家Sutskever說:「我們的目標是製造一個熱愛人類的AGI。」

「感受AGI」,他說。「跟我念——感受AGI。」

有效利他主義者說,他們可以構築更安全的AI系統,因為他們願意投資於所謂的對齊(alignment):確保員工可以控制其創造的AI技術,並確保AI技術符合一系列人類價值觀。迄今為止,還沒有哪家AI公司說過這些價值觀應該是什麼。

OpenAI最近表示,在未來四年將把自身五分之一的計算資源投入到該公司所說的「超級對齊」(superalignment)上;超級對齊是由Sutskever牽頭的一項工作。知情人士稱,該團隊已在打造的東西包括一個可以對AI系統進行研究的AI衍生「科學家」。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章