當ChatGPT「一本正經胡說八道」,如何破除「AI幻覺」?《經濟學人》的四種可能解方

2024-03-05 20:00

? 人氣

(圖像由Copilot創作)

(圖像由Copilot創作)

在這個AI技術日益進步與普及的時代,許多人都有跟大型語言模型(LLM)對話的經驗。如果你也是其中一員,或許以下情境對你並不陌生:ChatGPT回答問題時自信、連貫,細看答案卻悖離事實、完全錯誤。這種生成式AI「一本正經胡說八道」的詭異現象,人工智慧業界將其稱為(AI)「幻覺」(hallucination)或者(AI)「妄想」(delusion),《經濟學人》則給出四種建議的解方。

《經濟學人》指出,生成式AI的「幻覺」問題使得人們很難在現實生活中依賴人工智慧系統。然而要解決此一問題並非易事,因為讓AI出現「幻覺」的根本因素、同時也是讓它們威力無窮的原因——大型語言模型是「生成式」(generative)人工智慧的一種形式,從字面上來看,這意味著它們透過編造東西來解決新問題。

[啟動LINE推播] 每日重大新聞通知

各家生成式AI的研發者也清楚「幻覺」目前難以避免,因此官網經常可以看到警示標語,OpenAI也在使用說明中警告ChatGPT「可能會犯錯」;美國人工智慧公司Anthropic表示其大型語言模型Claude「可能會顯示不正確或有害的資訊」;Google的Gemini警告用戶「仔細檢查其回應」。這些警語都指向大型語言模型的同一個問題:無論AI生成的文字看起來多麼流暢和自信,我們仍不能百分之百相信它。

除了造成使用者的不便,生成式AI胡說八道更會造成法律爭端。加拿大航空官網的聊天機器人2022年11月就因為對消費者提供不實資訊,導致對方得到票價折扣的錯誤資訊,多付了483美元。加拿大男子莫法特(Jake Moffatt)為此將加航一狀告上法院,加拿大航空雖試圖推卸責任,宣稱「公司不應對聊天機器人提供的資訊負責」,但法院認定加航未能確保聊天機器人提供資訊的準確性,要求航空公司將溢收票價附加利息退還給消費者。

生成式AI如何生成?

大型語言模型之所以產生「幻覺」,《經濟學人》指出與其運作方式有關。大型語言模型生成回答的過程是基於預先訓練的模型,透過大量的文本資料進行訓練,從而能夠理解自然語言(也就是人類語言)的結構、語法和語意。當生成式AI接收到一個問題時,就會使用訓練好的模型來預測最有可能的答覆。換言之,生成式AI是利用上下文的語意和問題的特定細節,透過不同字詞接續生成的概率來推算出最有可能的答案。大型語言模型要求不同字詞都要有機會出現,這使得AI模型能夠靈活地學習新模式、不會給予一成不變的回覆,但同時也會產生錯誤的陳述。《經濟學人》指出,根本問題就在於,語言模型出現什麼答案是機率問題,但真理顯然不是。

《經濟學人》進一步解釋,大型語言模型的建構並不像搜尋引擎或是百科全書那樣能夠完美檢索,由於模型的資料大小勢必遠遠不如於訓練資料庫的大小,因此AI必須透過「壓縮」來進行學習。導致大型語言模型只保留了資料的關鍵特徵,彷彿是解析度低了許多的模糊照片。儘管有些事實不容易搞錯,例如「巴黎」可能始終都是「法國的首都是⋯⋯」之後出現機率最高的回覆,但更多統計上不太明顯的事實,就可能會在模型進行資料壓縮的過程中被搞錯。

訓練AI時微調參數權重

此外,當預先訓練的大型語言模型遭到「微調」時,可能會進一步出現失真。這通常出現在AI的訓練後期,生成式AI會參考預測結果的對錯,持續微調參數的權重,目的是希望藉由一次次的微調可以使AI變得極為精確,達到每次都能產生正確的輸出值。然而根據對話紀錄進行微調的過程中,可能會增加AI模型出現幻覺的機會,因為AI可能會編造事實來增加趣味性。《經濟學人》認為,調整AI模型的參數權重有助減少「幻覺」,比方說刻意建立一個有缺陷的模型,並根據與提示相矛盾或有所缺漏的資料進行訓練,進而研究人員可以從原始模型的權重中找出修改方向,達到降低「幻覺」的目的。

調整「溫度值」

《經濟學人》還提出了其他三種有助消除「幻覺」的解方:包括改變ChatGPT的「溫度」(temperature,範圍是0到2)參數,這個參數可以改變AI產出的創意程度和連貫性,較低的溫度值使AI模型更加保守,但準確性和一致性會比較高;較高的溫度值則會增加選擇的隨機性,因此產生更有創意的回應,但答覆的內容也有可能離題。如果目標是減少幻覺,則溫度應該設定為零。此外,也可以限制模型只選擇機率較高、排名較前的選項進行答覆,這種做法降低了回應不佳、離題的可能性,同時也允許一定的隨機性,從而保留回應的多樣性。

巧妙引導AI

巧妙的提示也可以減少生成式AI產生幻覺。Google DeepMind的研究人員發現,告訴大型語言模型「慢慢來、一步一步處理這個問題」,可以減少錯誤回應、並且提高解決問題的能力,尤其是數學問題。《經濟學人》解釋,AI模型會學習範例和回覆模式,將問題拆解為更小、更單一、精確的問題,模型更有機會識別並應用正確的範例進行回應。不過愛丁堡大學的自然語言處理專家愛德華多・龐蒂(Edoardo Ponti)認為,這種做法只是「治標不治本」。

RAG:檢索增強生成

《經濟學人》也提到了RAG(Retrieval-Augmented Generation),也就是「檢索增強生成」技術。RAG將AI模型的工作分為兩部分:檢索和生成,前者負責從外部知識庫(例如報章雜誌等)中檢索相關的訊息、提取提示中相關的上下文資訊,生成訊息時再根據檢索到的資訊進一步處理。這種做法可以使大型語言模型發揮摘要與改寫的優勢,而非進行研究工作——進而減少幻覺的產生。包括計算機和搜尋引擎這樣的外部工具,也可以透過RAG的方式連接到大型語言模型上,有效地為其建立補強的支援系統。

「幻覺」終究難以避免?

雖然《經濟學人》提出種種解方,但也承認大型語言模型產生幻覺終究難以避免。美國軟體公司Vectara一項追蹤調查顯示,ChatGPT 4.0的摘要仍有3%是錯誤的;Claude 2 為8.5%、Gemini Pro 為4.8%,這讓程式設計師集中心力在檢測而非預防「幻覺」的出現。在其檢測的過程中發現一項線索,在大型語言模型選擇回覆的字詞中,如果許多單字被AI挑中的可能性都相當接近,這意味著AI也不確定要選擇何者為是。這項線索表明大型語言模型就是在猜,而不是使用它所接受到的訊息去判斷並知道何者為真。

檢測幻覺的另一種方法是訓練另一個大型語言模型來進行事實查核。作為事實查核的模型可以得到「基本事實」以及被查核的模型的回覆,然後判斷它是否同意被查核模型的敘述。或者,可以向事實查核模型提供被查核模型對同一個問題的多種回覆,並判斷這些回應是否一致,如果不是的話,被查核模型的回覆就很有可能是幻覺。晶片製造商輝達(Nvidia)就開發了一個開源框架,用於建立圍繞大型語言模型的護欄、使其更加可靠,目的之一就是在需要時部署事實查核機制來防止幻覺。

微軟AI Frontier的負責人艾斯・卡瑪(Ece Kamar)表示,雖然這些方法可以降低幻覺發生的機率,但「目前還不清楚這些技術是否能夠完全消除幻覺」。她指出,在許多情況下,這類似於模型的自我破壞,舉例來說,如果大型語言模型被要求對一部奇幻小說提出想法,但僅限給予符合現實世界的回應,那麼其產出將會令人失望。Kamar表示,她的研究目的不是消除所有模型的幻覺,而是阻止模型在無異的情況下產生幻覺。

許多研究人員相信,避免AI幻覺必須使用更多更好的數據來訓練大型語言模型;也有人認為,大型語言模型作為一個機率模型,永遠無法達到完全消除幻覺的境地。《經濟學人》指出,真正的問題恐怕不在AI模型本身、而是在於使用者。生成語言曾是人類獨有的能力,大型語言模型令人信服的文字輸出能力讓人們輕易將其擬人化,假設它們能像人類那樣操作語言、甚至進行推理和理解。但目前仍沒有證據顯示大型語言模型能辦到這些事,因為它們無法學習邏輯一貫的世界模型。即使語言模型不斷改進、輸出更符合人類期望的答案,我們依舊不清楚AI模型是否更為「人性化」。要讓AI模型在現實世界中獲得更好的運用,光是訓練AI是不夠的,更為重要的是,我們也該訓練人類如何使用和看待AI模型。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章