「二十年之內,AI有機會比人類更聰明」AI教父辛頓警告:人工智慧具備演化能力,人類社會恐被其接管

2024-04-09 15:30

? 人氣

(使用AI產生,由DALL E3提供)

(使用AI產生,由DALL E3提供)

2018年的圖靈獎得主傑佛瑞・辛頓,因為類神經網路與深度學習的貢獻被譽為「AI教父」、甚至是「人工智慧領域半世紀來最有影響力的研究者」。不過他去年辭去Google副總裁一職,不再替其進行AI開發,引發高度關注。辛頓日前接受《日經亞洲》專訪,談及他為何視AI為威脅,甚至大膽預測「AI在20年內有機會比人類更聰明」。

談到需要提防AI之處,辛頓(Geoffrey Hinton)對《日經》表示,當我們設立一個表面看來沒問題的目標,交給AI處理可能得出對使用者很糟糕的解方。舉例來說,如果我們將氣候變遷問題交給人工智慧解決(也就是目標是「停止氣候變遷」),它的第一個解方恐怕是讓全人類消失,因為人類才是造成全球暖化的元兇。因此使用AI時,我們必須非常謹慎地具體說明目標。

[啟動LINE推播] 每日重大新聞通知

辛頓還說,不同的AI之間可能出現競爭,它們需要透過學習大量數據來變得更加聰明,這麼做就需要大量的資料中心和大量的資源。在競爭過程中,AI彼此會相互爭奪資源,獲得更多資源的AI就會做得更好。辛頓認為AI的競爭就彷彿某種生物演化的過程,透過競爭AI的能力有可能大幅超越人類。

許多人可能會問,如果AI對於人類有威脅性,「為什麼不裝一個開關來控制AI的啟動與關閉」?辛頓對此表示,如果AI比我們更聰明,只要它們可以與人類交談,這些AI就能說服負責開關的人,因此讓人關掉AI開關的想法實在不怎麼高明。

AI遠比人類想像更強大

辛頓過去也曾對《紐約客》表示:「AI遠比我們想像的更強大。」因為對人類來說,腦死就等於知識死亡,數位智慧卻不是如此。辛頓表示:「如果一台特定的電腦壞了,那些相同的連結強度可以在另一台電腦上使用。即使所有的電腦都壞了,如果將連接強度儲存在某處,就可以再組裝一台電腦、在上頭執行相同權重的運算。一萬個神經網路可以同時學習一萬種不同的東西,然後分享它們所學到的東西。」這種不朽性和可複製性的結合,凸顯了辛頓的擔憂—「我們應該擔心數位智慧會取代生物智慧」。

辛頓表示人工智慧可能已經和我們一樣優秀,因為他們能夠更好地相互交流知識,人類卻做不到。他認為要阻止人工智慧繼續發展已經來不及,也不太可能去限制人工智慧的意圖與目標,因此AI將無可避免地比人類更聰明。理性上,他了解到AI不可能「原地消失」,但他希望年輕一代的科學家應該思考,是否有機會阻止AI接管人類。

AI變成「脫韁野馬」是辛頓一直以來憂慮的問題,他去年在哥倫比亞廣播公司(CBS)的《六十分鐘》節目表示,AI在快速發展下,「五年內」或可獲得凌駕人類的能力,一旦發生這種情況,人類可能就無法控制AI,他指出:「這些系統可能逃避控制的方式之一是編寫自己的電腦程式來修改自己。」 這種「失控」的AI自我進化的未來,將是人類該認真看待的事。

AI也有意識?

辛頓認為人工智慧幾乎已經和人類一樣、擁有主觀經驗,而大部分的人對於思考模型的理解都是錯的。辛頓舉例說明:假設我喝了很多酒,隔天早上醒來因為幻覺而「看見」粉紅色的小象。一般人在這種情況下並不會相信小象真實存在,而是會認為自己的感官系統出了問題,因此這屬於主觀的內在經驗。

現在假設我有一個經過訓練、理解語言的多模態聊天機器人,它有一個相機和手臂,因此它可以指向物體。我在相機前面放置一個稜鏡而且沒有讓機器人知道,然後擺放一個物體在它面前。由於稜鏡會造成光線彎曲,因此產生物體在遠處的錯覺,導致機器人無法確實指向物體擺放的位置(就在它面前)。在得知稜鏡的存在後,機器人可能會說「原來物體實際上就在我的正前方,但我的主觀經驗告訴我『物體在遠處』。辛頓認為,AI對「主觀經驗」這個詞的用法就跟人類一模一樣。此外,辛頓也對《日經》強調,很多人認為意識、知覺、主觀經驗是人類特有的,AI並不具備理解世界的能力,這些想法在辛頓看來都是錯誤的想法。

「AI和核武一樣危險」

辛頓對《日經》表示,他相信未來十年極可能出現自主而致命的糟糕武器,這當然需要受到類似對於化學武器的監管。如今化武的使用情況遠不如上個世紀一次大戰時廣泛,辛頓認為就是相關的國際協議發揮作用。辛頓希望人類社會能夠早日為AI戰鬥機器人達成類似協議,但他也悲觀認為,恐怕要在AI戰鬥機器人實際派上用場之後,國際社會才會出手監管。

雖然如此,不過辛頓又樂觀地認為所有國家都不希望讓AI接管這個世界,因此所有國家應該都願意分享研究成果,針對防止人工智慧取代人類的政策達成共識。如同冷戰年代,美蘇兩國都願意採取措施來防止核戰爆發,因為核戰爭顯然對於雙方都極為不利。當年美蘇想要阻止核戰,他們也確實做到了。

ChatGPT能理解人類語言?

辛頓對這個問題的回答是:「是的,我認為它確實明白。」

早在1985年,辛頓就使用神經網路做出第一個語言模型,這是以人類大腦如何理解為基礎所設計的模型。辛頓坦言,大多數聲稱AI不懂語言的人,並不真的清楚人類如何理解語言。不過辛頓以AI能否聽懂笑話,來作為AI是否理解事物的標準。

辛頓在2022年為Google開發了PaLM聊天機器人,辛頓說,這個機器人可以理解笑話為何有趣,並解釋笑點何在。辛頓也曾向《紐約客》分享互動式AI確實能理解人類語言,因為有次他請ChatGPT解釋「福斯新聞是個『oxy』白痴。(Fox News is an oxy moron.)」是什麼意思,系統回應他,他的語句暗示福斯新聞是假新聞。當辛頓進一步請ChatGPT解釋為什麼要在「oxy」和「moron」之間加空格,(oxy只是oxymoron的字首、moron則為白痴之意;oxymoron意為「矛盾語」),系統解釋道:「福斯新聞會讓人上癮,就像藥物奧施康定(OxyContin,處方類鴉片止痛藥,成分與海洛因相近)一樣。」辛頓以此為例,AI理解語言的程度讓他十分驚訝。

AI是否改變我們對人類的理解?

辛頓認為,透過建立這些神經網路,我們已經發現了許多關於大腦如何運作的資訊。舉例而言,過去一些哲學家和語言學家認為「語言無法學習」,因為語言必須是進化的與天生的,辛頓指出,事實證明這完全是無稽之談。

過去半世紀,辛頓堅信神經網路只要更像人腦,就會有更好的表現,因為大腦比神經網路工作得更好,因此他致力於開發神經網路試圖讓它們更像人類大腦。但辛頓表示,在2023年初他有截然不同的見解。辛頓認為,人類分享知識需要很長的時間,我們無法逃脫死亡,然而,在數字的世界,一切內容都簡化為「0」和「1」加以記錄,知識變得不依賴特定的硬體,可以瞬間複製數據並進行完全相同的程序。現在的大型語言模型以人腦百分之一的規模,儲存比人類多數千倍的知識,這表示AI能夠更有效率的學習演算法。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章