訓練AI模型,用電量能為家庭供電41年!AI的矛盾:幫公司節能,自己本身卻很耗能

2023-09-21 12:00

? 人氣

ChatGPT-3也消耗大量水資源。加州大學河濱分校(University of California Riverside)的電機暨計算機工程教授Shaolei Ren表示,當ChatGPT-3進行20至50個基本對話時,就要消耗500毫升的水。至於模型更龐大的ChatGPT-4,Ren推估,應該會消耗更多水資源,但目前沒有充足的公開數據去推算確切的耗水量。

[啟動LINE推播] 每日重大新聞通知

至於Google的大型語言模型LaMDA,Ren的團隊估算,僅在訓練的階段,模型就消耗了約1,000公噸的水。根據Google統計,2022年資料中心的用水量比2021年增加將近20%。至於LaMDA模型的碳排放量,Google估算為26公噸,相當於22名乘客搭飛機往返舊金山與紐約的碳排放量。

使用不同地區的水和電,也會影響AI訓練的排碳量

資料中心該如何節水節電,以降低AI運算所產生的碳排?

能源來源是降低碳排的重要因素,若使用替代能源,就能在不改變模型的規模條件下,減少AI運算的碳排放量。另外,美國沒有中央電網,每個州的發電方式不同,所以在不同州訓練模型的碳排放量也不同。若要在美國建設資料中心,選擇風電資源豐富的加州,會比依賴化石燃料的維吉尼亞州更佳,能取得更多的減碳效益。

用水也能像用電一樣,使其更有效率,但關鍵在水從何來。微軟統計,資料中心每使用一單位的電,亞洲資料中心用於降溫的耗水量是美洲資料中心的3倍,原因是亞洲的氣候較熱,需要使用水冷式冷卻機組降溫,就會消耗更多水。Ren的研究團隊則表示,不同季節會劇烈影響用水量。夏天時,因為水更容易蒸發,因此要消耗更多水。季節變化加上不同的地理位置影響,資料中心的最高用水量可以和最低用水量差到3倍以上。

AI的工作都是透過網路來進行,可以透過不同的資料中心運算,若能根據不同地區的能源與用水量的特性來分擔運算工作,就可以降低總體的耗電與耗水,進而降低碳排。例如使用再生能源較多的資料中心,或是透過較冷地區的資料中心運算,就能更省水省電。Ren也表示,除了使用淡水,Google也在研究如何使用廢水、海水替代,降低耗水量。Google去年曾在blog文章中提到,Google的目標是在2030年前,為自然環境補充其資料中心120%的用水量。

Luccioni則認為,不是所有的任務都需要導入AI,如果該任務原先已經有良好且高效的技術,就不需要使用高耗能的AI,這樣也有助於降低碳排放量。但在對抗氣候變遷的戰役中,透過AI能尋找出更有效率的工作路徑,也能更精準模擬氣候模式,進而找出更好的應對方式。水可載舟也可覆舟,人們必須在AI的減碳效益與AI的能耗間找到平衡點。

本文為風傳媒特邀導讀人金牛幫幫忙撰寫,請點此訂閱:風傳媒・華爾街日報VVIP,風傳媒會員獨享全球最低優惠價,暢讀中英日文全版本之華爾街日報,洞悉國際政經最前沿。

責任編輯/郭家宏

喜歡這篇文章嗎?

金牛幫幫忙喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章