今年1月,OpenAI執行長山姆・阿特曼(Sam Altman)和產品長Kevin Weil展示了即將發布的ChatGPT「深度研究」應用。華盛頓的觀眾觀看了這樣一個場景:Weil請ChatGPT準備一份備忘錄,就阿爾伯特・愛因斯坦(Albert Einstein)擔任能源部長的確認聽證會為一名虛構的參議員提供資訊。
ChatGPT很快就生成了一份關於愛因斯坦的詳盡簡介,列出了他的技術和工程成就、領導風格、優點(「一位全球敬重的科學家兼政治人物」)和缺點(「從未管理過大型組織」),外加這位參議員可以提出的問題(「自二戰以來,您一直在核問題上直言不諱。作為能源部長,您將如何確保核電站的安全並維護美國對核不擴散的承諾?」)。
這種令人印象深刻且如今已司空見慣的功能所帶來的好處顯而易見:極大地節省了時間和精力。當然,也會有潛在的代價:研究人員、作家和其他知識工作者會因為人工智慧(AI)而失去多少工作崗位?
我想到的是另一種代價:有多少知識會因AI而流失?像ChatGPT、Google的Gemini和Anthropic的Claude這樣的大語言模型擅長定位、整合和關聯知識,但它們並不會增加知識的存量。
相比之下,當人類回答諸如愛因斯坦是否應擔任能源部長之類的問題時,他們往往會開闢新的探究途徑,並在這一過程中創造新的知識和見解。他們這樣做有多種原因:薪水、財富、名望、教職、「點讚」、點擊量、好奇心。
如果大語言模型主導了回答問題的工作,那些激勵因素就會萎縮。當你創造的知識隨後被扔進一個大語言攪拌機裡打成漿糊時,你幾乎得不到任何回報。
想想Stack Overflow的命運吧。這是一個軟體開發者提問和回答問題的網站,既是知識的源泉,也是知識的寶庫。
但後來,開發者們開始向ChatGPT提問。布達佩斯考文紐斯大學(Corvinus University of Budapest)的Johannes Wachs和兩位合著者的一項研究顯示,2022年11月ChatGPT推出六個月後,Stack Overflow平台上的提問量較之前下降了25%。這一降幅是通過與中文和俄語同類網站對比得出的——在這些語言平台上,ChatGPT尚未成為用戶獲取答案的替代選項。
根據同行反饋,無論問題品質高低,降幅都是一樣的,這駁斥了AI只會取代低價值研究的預測。
截至9月,問題數量的降幅已超過90%。除了Stack Overflow的所有者,其他人為什麼也應該關心此事呢?因為正如科技作家Nick Hodges在InfoWorld上所解釋的那樣:「Stack Overflow提供了AI編程工具中內嵌的大部分知識,但開發者越依賴AI編程工具,他們就越不可能參與Stack Overflow這個生產知識的網站。」
Stack Overflow可能是一個極端的例子。另一項研究發現,Reddit上沒有出現類似的下降。 (相關報導: 華爾街日報》美中談判桌下的暗戰:中國駭客冒充議員發動釣魚攻勢,意圖竊取川普談判情報 | 更多文章 )
但有跡象表明,其他地方也出現了類似的影響。許多大語言模型都是在維基百科(Wikipedia)上訓練的,這是一個由人類彙編和維護的知識庫。哥倫比亞大學(Columbia University)商學院教授Hannah Li和五位合著者發現,在ChatGPT推出前一年與推出後一年之間,與ChatGPT生成內容最相似的維基百科頁面的瀏覽量下降了。編輯量也有所下降,這可能是貢獻激勵減少的一個跡象,儘管數據尚無定論。





















































