近日,一篇名爲“How OpenAI Sold its Soul for $1 Billion”(OpenAI是如何因爲 10 億美元出賣自己的靈魂)的文章在 Reddit 上引起了熱議。
文章作者 Alberto Romero 抨擊知名的非營利機構 OpenAI 爲了金錢而出賣自己原有的“爲人類造福”宗旨。
OpenAI 成立於 2015 年,創立之初便將自己定位爲“非營利組織”,目標是以安全的方式實現通用人工智能(AGI),使全人類平等收益,而不是爲公司的股東創造利潤。
但在 2019 年,OpenAI 違背了它的初衷,成爲了一家名爲“OpenAI LP”的營利性公司,由一家名爲“OpenAI Inc”的母公司控制。這時,OpenAI 成了一家有利潤上限的機構,股東的投資回報被限制爲不超過原始投資金額的 100 倍。也就是說,如果你投資 1000 萬美元,你最多能得到 10 億美元的回報。
OpenAI 的結構改了之後,沒幾個月,微軟就注資了 10 億美元。而微軟與 OpenAI 的合作關係,是基於一個重要前提,即微軟有權將 OpenAI 的部分技術商業化,比如 GPT-3 與 Codex。今年 5 月末,微軟的官方網站便報道了他們用 GPT-3 的技術賦能內部商業產品,爲用戶服務:
微軟新聞:https://blogs.microsoft.com/ai/from-conversation-to-code-microsoft-introduces-its-first-product-features-powered-by-gpt-3/
當 OpenAI 因金錢關係與大型商業公司達成合作協議,我們還能相信他們會信守承諾,從全人類的福祉出發來發展人工智能嗎?亦或是,技術終將淪爲資本的俘虜,情懷也難逃被出賣的命運?
文章作者 Alberto 指出,OpenAI 的技術野心,決定了它難逃要與資本合作的宿命。
作爲一個高定位的人工智能研究實驗室,OpenAI 的雄心壯志要求它必須獲取足夠的資源支持,其中,金錢始終是排在第一位。比方說,去年夏天火熱全網的 GPT-3,在訓練階段就已花費了大約 1200 萬美元:

GPT-3 是一個大規模語言模型,光參數量就已達到 1750 億。如果不尋求交易,他們很難獲得這麼雄厚的研究經費。所以,在他們意識到需要投資時,發現微軟當時正等着給自己提供雲計算服務,交換條件是微軟屆時能將它們尚未成熟的系統商業化。這時,一方可以獲得計算資源,一方可以達到盈利,何樂而不爲呢?
早在2020年2月,麻省理工科技評論的記者 Karen Hao 就發表了一篇文章,探究了 OpenAI 與微軟的合作。Karen Hao 在“The messy, secretive reality behind OpenAI’s bid to save the world”一文中明確指出,經過對 OpenAI 內部員工的數次採訪,她發現 OpenAI 的公開宣稱內容(實現通用人工智能、使人類平均受益)與內部的運營方式存在不一致之處。
新聞鏈接:https://www.technologyreview.com/2020/02/17/844721/ai-openai-moonshot-elon-musk-sam-altman-greg-brockman-messy-secretive-reality/
爲什麼一家以造福全人類爲基礎的公司突然需要大量的私人資金?要知道,從創立之初,Open AI 就獲得了馬斯克、Sam Altman與 Peter Thiel(Paypal 創始人)等人 10 億美元的私人投資。OpenAI 從非營利到營利的轉變,不僅引起了公衆輿論的不解,也在公司內部遭到了批評。
艾倫人工智能研究所的所長 Oren Etzioni 在得知微軟注資 OpenAI 時,當時即表示懷疑態度,稱:“我不同意非營利組織不具備競爭力的觀點……如果規模更大、資金更多就代表(這個機構)會發展地更好,那 IBM 就不會被擠下第一名的位置。”
Vice News 的知名撰稿人 Caroline Haskins 也認爲,OpenAI 已經違背了他們當初的使命:“(我們)從來沒有試過靠風險投資者來改善人類的命運。”
我們不得不承認,OpenAI 將研究重點放在需要由更大算力與更大數據驅動的神經網絡上,這必然需要很多金錢。但是,Alberto 也指出,如 Oren Etzioni 所言,金錢並不是取得最先進的 AI 成果的唯一途徑。更多時候,你需要的是極富創造性的想法,而不是靠堆更多的算力,或更多的數據。
GPT-2 與 GPT-3 的誕生
2019 年初,已經成爲營利性公司的 OpenAI 發佈了一個強大的語言模型——GPT-2,能夠生成達到人類水平的文本。儘管 GPT-2 在當時是一個巨大的飛躍,但也有許多研究人員將其比喻爲一隻“危險的怪獸”,無法與大衆共享。比如,他們擔心 GPT-2 會被用來“傳播假新聞、垃圾郵件與虛假信息”。
但這份擔心很快就被打消。GPT-2 沒有被廣泛證明有濫用的風險,所以研究人員還是紛紛使用了 GPT-2。
羅格斯大學的教授 Britt Paris 曾評論,GPT-2 的誕生似乎不是爲了造福人類,反而像是 OpenAI 利用了人工智能可能會給人類社會帶來的恐慌,從而引起媒體的注意。他們認爲,GPT-2 並不像 OpenAI 聲稱的那樣強大,但是,從營銷的角度來看,他們可以吸引媒體的關注。
如果 GPT-2 沒有他們宣稱的那麼強大,那爲什麼要讓它看起來更危險呢?Alberto 認爲,單從這一點來看,OpenAI 就已經沒有遵守自己的道德標準。
2020 年 6 月,GPT-3 發佈,比 GPT-2 大了 100 倍,更強大,本質上也許更危險。但 OpenAI 似乎認爲新系統足夠安全,可以與世界分享,所以通過 API 發佈。他們設置了一個候補名單來逐個審查訪問請求,但這並不能控制系統最終被用於何處。
在“Language Models are Few-Shot Learners”一文中,他們甚至承認,如果 GPT-3 落入壞人之手,可能會帶來不好的後果,比如“錯誤信息、垃圾郵件、網絡釣魚、濫用法律和政府程序、欺詐性學術論文寫作和社會工程託辭”,或加劇性別、種族和宗教的偏見。
論文地址:https://arxiv.org/pdf/2005.14165.pdf
他們認識到問題的存在,但仍然允許用戶對系統進行試驗。關於通過 API 發佈,OpenAI 當時的迴應是“支付他們接下來的 AI 研究、安全與政策制定等工作”。
一句話總結,就是說:“負責”保護人類免受 AI 侵害的公司決定讓人們使用一個能夠造成虛假信息和危險偏見的系統,以便他們可以支付昂貴的維護費用。這還是“對所有人都有價值”嗎?
所以,當時社交媒體上很快就出現了關於 GPT-3 可能造成的潛在問題的激烈討論。Facebook 人工智能研究的負責人 Jerome Pesenti 當時就寫了一條推文,在推文中舉了一個例子,談到 GPT-3 可能會生成加劇種族與性別歧視的文本:

UC Berkeley 的計算機系學生 Liam Porr 還用 GPT-3 寫了一篇能提高寫作效率的文章,與訂閱者分享,但沒有透露其中的技巧。這篇文章在 Hacker News 上排名第一。如果 UC Berkerley 的大學生都會設法用人工智能編寫的作品欺騙所有人,那麼一羣有惡意的人會做什麼呢?
鏈接:https://adolos.substack.com/p/feeling-unproductive-maybe-you-should
除了傳播假新聞,GPT-3 的另一個危害是傳播人類無法區分的假新聞。這一點也被 OpenAI 在“Language Models are Few-Shot Learners”一文中認可、甚至強調了:
“[M]ean human accuracy at detecting the longer articles that were produced by GPT-3 175B was barely above chance at 52%. This indicates that, for news articles that are around 500 words long, GPT-3 continues to produce articles that humans find difficult to distinguish from human written news articles.”
(人類在檢測 GPT-3 175B 生成的較長文章時的平均準確率僅略高於 52%。這表明,GPT-3 能夠繼續生成人類難以區分的、長度約爲 500 字的新聞文章。)
Codex and Copilot,侵權了嗎?
今年他們也做了類似的事情。
幾周前,OpenAI、GitHub和微軟聯合發佈了一款編程工具 Copilot,這款工具基於GitHub及其他網站的源代碼,可根據上文提示爲程序員自動編寫下文代碼!被稱爲是結對編程的虛擬版本。
結對編程是一種常見的敏捷軟件開發技術——即兩個開發人員在同一個項目上並肩協作,輪流編寫代碼並檢查合作伙伴的輸出。
拋開可能對開發者造成的潛在威脅不談,這款工具僅發佈幾天後便遭到了猛烈的抨擊,原因是它在未經許可的情況下,使用了公共的Github存儲庫的開源代碼。
當時,GitHub的首席執行官 Nat Friedman 公佈這則消息後,Hacker news上已經有不少網友在討論,Copilot可能會存在潛在的法律風險。
鏈接:https://news.ycombinator.com/item?id=27676939
比如,一位網友就指出了多個疑問:
AI生成的代碼屬於我?還是GitHub?
生成的代碼屬於哪個許可證?
如果生成的代碼侵權,誰來承擔法律責任?
一位從事開源工作的開發者 Armin Ronacher 直接在 Twitter 上分享了一個示例,表明 Copilot確實存在剽竊版權代碼的可能。

下面也有一位網友評論說:“我們也發現Copilot 直接複製了一段GPL代碼,這說明它在商業使用上是有風險的。
其實,就算Copilot沒有逐字複製代碼,也會產生一個道德問題:GitHub 或者 OpenAI 等公司是否有權使用數千名開發者的開源代碼對自己的系統進行訓練,並將這些系統的使用權賣給開發者自己?
一位開發者兼遊戲設計師 Evelyn Woods 對此評論說:“他們好像在把開源當成一個笑話!”
OpenAI 現在真正的意圖是什麼?
Alberto 發出疑問:
難道他們已經與微軟的利益捆綁在一起,以至於忘記了最初“造福人類”的宗旨?還是他們真的以爲自己擁有最好的工具和人纔可以獨自開拓這條道路,這是否意味着OpenAI出賣了自己的靈魂?他們是按照自己的意願來建設未來,還是考慮到了更多人?更重要的是,他們是否想從中獲取鉅額利潤?
OpenAI 在邁向更復雜人工智能的道路上佔據了主導地位,當然,也有許多其他有潛力的機構在做相關的工作,這些機構並沒有與金錢產生直接的聯繫,因而也受到了外界廣泛的關注。
就目前來看,大型科技公司的目標似乎是並不是建立一個滿足科學好奇心的通用人工智能,也不是建立一個最安全、最負責、最道德的人工智能。他們的首要任務是賺錢!
當然,這本身並不違法,但在道德上需要警惕,因爲他們可能會不惜一切手段去實現目標,而這個過程可能會對大多數人產生不利影響。
之前 OpenAI 聯合創始人埃隆·馬斯克(Elon Musk)就曾批評其稱:OpenAI 應該更加開放!

在 Reddit 上,Alberto Romero 的文章也引起了網友的討論。
鏈接:https://www.reddit.com/r/MachineLearning/comments/pizllt/d_how_openai_sold_its_soul_for_1_billion_the/
網友紛紛稱:OpenAI 早已應該更名爲“ClosedAI”。

也許 OpenAI 公司仍在堅持他們最初的使命,但他們也應該意識到:不能爲了達到目的而不擇手段,因爲不合理的手段可能會損害更遠大的目標。
毫無疑問,科學家們都希望實現通用人工智能。科學的好奇心是沒有限度的,但我們也應該對潛在的風險保持警惕,就像核聚變是了不起的發明,但核聚變炸彈不是。
換一個角度來講,我們願意爲了實現通用人工智能而付出任何代價嗎?至少從道德上,很多人是不願意的。科學家們或許更應該注意到這一點。
我們正在快速地更新這些深刻改變人們生活的技術。但是,如果只關心自己的利益和目標,無論是 OpenAI 還是其他人,最後都應該對後果承擔很大的責任。
https://onezero.medium.com/openai-sold-its-soul-for-1-billion-cf35ff9e8cd4
https://www.reddit.com/r/MachineLearning/comments/pizllt/d_how_openai_sold_its_soul_for_1_billion_the/
https://blogs.microsoft.com/ai/from-conversation-to-code-microsoft-introduces-its-first-product-features-powered-by-gpt-3/
https://www.theverge.com/2019/11/7/20953040/openai-text-generation-ai-gpt-2-full-model-release-1-5b-parameters
https://openai.com/blog/openai-api/

雷鋒網雷鋒網(公衆號:雷鋒網)雷鋒網
雷鋒網特約稿件,未經授權禁止轉載。詳情見轉載須知。
讀者迴響