過去幾年,AI浪潮幾乎讓外界把所有鎂光燈都投向GPU,彷彿只要談到人工智慧運算,答案永遠都是顯示晶片。但在2026年GTC大會前夕,市場開始看到另一個更值得注意的轉向:輝達正把CPU重新拉回AI基礎設施的核心位置。路透報導指出,輝達在這次GTC預計進一步說明針對代理型AI工作流程最佳化的CPU布局,外界甚至預期,輝達可能首次在展場上展示純CPU伺服器機架。這樣的訊號之所以重要,不只是因為輝達要做CPU,而是因為AI工作型態變了。從前一輪生成式AI熱潮來看,多數應用仍停留在「你問一句、模型答一句」的模式;但現在市場正在往代理型AI推進,也就是由多個AI代理分工協作、彼此接力執行任務的運作方式。這類系統不只需要GPU負責模型推理,也需要CPU處理大量資料搬移、流程協調、系統編排與一般運算管理,CPU因此不再只是陪襯角色。
為什麼代理型AI會讓CPU重新變得重要?
輝達AI基礎設施主管Dion Harris直接點出核心變化:在擴展AI與代理型工作流程的過程中,CPU正逐漸成為瓶頸,這在輝達眼中反而是一個令人興奮的新機會。這句話代表現在限制AI系統再往上擴張的,不再只是GPU算力夠不夠,還包括CPU能不能有效把資料餵給GPU、把多代理任務排好、把整體系統運轉順暢。如果用最簡單的方式理解,GPU擅長的是把大量相似計算同時丟出去一起做,這讓它特別適合模型訓練與大規模推理;但CPU比較擅長處理通用、連續、需要判斷邏輯與控制流程的任務。代理型AI恰恰不是只有「算答案」而已,它還要先拆解任務、安排順序、呼叫工具、搬運資料、協調不同代理之間的工作。這些過程需要的就是CPU那種偏通用、偏序列、偏協調型的能力。也因此,CPU在AI時代不是退場,而是從背景重新走回台前。
輝達的CPU最新進度走到哪裡了?
從產品節奏來看,輝達並不是現在才碰CPU。輝達早在2021年就推出資料中心CPU Grace,而現在下一代Vera也已經進入更明確的推進階段。輝達官網對Vera的定位寫道:這顆CPU是為代理型推理而打造,主要負責協調資料搬移、記憶體與整體工作流程,可與輝達GPU搭配,也可以獨立運作來支援分析、雲端、系統編排、儲存與高效能運算工作。更關鍵的是,輝達的CPU策略在2026年2月出現明顯轉折。路透報導指出,Meta已與輝達簽下多年期合作,將大規模採用Grace與後續Vera CPU,而且這是相對新的做法,因為過去輝達資料中心CPU多半是與多顆GPU綁在一起部署,如今Meta則會把Grace與Vera作為獨立CPU平台來使用。這代表輝達CPU不再只是「GPU旁邊那顆」,而是開始被客戶當成單獨、可規模化採購的處理器產品。
輝達為何敢在CPU市場向英特爾與AMD開戰?
CPU市場長期以來是英特爾與AMD的主場。2025年第四季伺服器CPU市場仍以英特爾與AMD為主,輝達市占仍屬較小的一方。但輝達的切入方式並不是走傳統CPU廠的老路,而是直接把CPU拉進AI基礎設施分工裡重新定義。輝達與傳統CPU供應商最大的設計差異之一,就在於它不是先追求「一顆CPU塞最多核心、壓低單位核心成本」,而是先思考如何不要讓昂貴的GPU閒著等資料。Grace CPU採Arm架構,核心數量也不像AMD EPYC或英特爾高階Xeon那樣往128核心級距靠攏;輝達更在意的是單執行緒效能與資料搬移效率,因為在AI機架裡,CPU若慢一步,後面一整排GPU就可能被拖慢。這種設計哲學,和英特爾、AMD長年服務一般雲端與企業通用運算的思維明顯不同。AMD方面也看得很清楚。AMD資料中心部門主管Forrest Norrod曾表示,輝達的CPU確實非常適合拿來餵養自家的GPU,但若放在一般通用型應用上,並不算最佳化,這代表輝達CPU的目標市場並不是單純複製傳統伺服器CPU模式,而是鎖定AI資料中心與代理型工作流程這個新的需求缺口。
現在的CPU市場,為什麼反而開始出現供應壓力?
當AI市場持續往上堆高時,CPU這個一度被低估的市場,也開始出現新的供需張力。美國銀行預期到2028年,CPU市場成長率甚至可能超越GPU。AMD與英特爾也都向中國客戶發出供應偏緊訊號;目前CPU交貨期已經拉長到六個月,價格也漲了超過一成。AMD方面更坦言,過去六到九個月的需求成長前所未見,而且到現在還看不到放緩跡象。這波供應壓力並不難理解。當生成式AI進一步走向代理型AI、AI資料中心規模持續擴張,業界不只需要更多GPU,也需要更多能協調資料流與工作流程的CPU。過去CPU被視為成熟市場,但現在它開始重新被拉進AI擴產主戰場。對輝達來說,這是機會;對整個產業來說,則意味著CPU也可能從配套零件,變成新一輪競逐焦點。
CPU、GPU、NPU、TPU到底差在哪裡?
如果把這四種晶片放到同一張圖裡看,最根本的差別在於「它們被設計來做什麼」。CPU,也就是中央處理器,本質上是最通用的處理器。它像整台系統的大腦,負責處理控制流程、邏輯判斷、序列任務與各種日常運算。CPU的優勢是靈活、相容性高、什麼都能做,但缺點是當任務需要極大量平行計算時,效率通常不是最高。可以把CPU想成萬能管家:事情都能接,但不一定最適合做超大規模重複性工作。
GPU,也就是圖形處理器,最初是為圖形渲染設計,後來因為具有大量運算核心、擅長平行處理矩陣與張量運算,成為AI訓練與高階推理的主力。GPU的優勢是吞吐量高、生態成熟、非常適合深度學習;缺點則是耗電高、成本高,而且若任務本身不適合大規模平行處理,它未必划算。這也是為什麼輝達雖然靠GPU稱王,現在卻反過來開始大談CPU的重要性。GPU很強,但不是所有事情都該交給GPU做。NPU,也就是神經網路處理器,通常更常出現在手機、筆電、終端裝置與邊緣設備上。它的設計目標不是追求最大算力,而是以低功耗、低延遲的方式完成裝置端AI任務,像是語音辨識、背景虛化、人臉辨識等。NPU比較像省電型AI助手,專長是把AI功能放進終端設備,而且盡量不耗電、不發熱。TPU,也就是張量處理器,則是Google自行打造的專用AI加速器,本質上更接近為特定深度學習工作量身打造的ASIC。TPU最擅長的是大規模張量與矩陣計算,特別適合Google Cloud上的大型模型訓練與推理任務。它的優勢在於特定任務下效率與能耗比很高,但缺點是生態較封閉,主要仍圍繞Google自己的雲端體系。
所以如果真要一句話總結:CPU負責通用協調,GPU負責大規模平行訓練與推理,NPU負責終端省電AI,TPU則是Google體系內的高效率專用AI引擎。四者不是誰一定淘汰誰,而是會在AI時代形成更明顯的分工。 (相關報導: OpenClaw「養龍蝦」是什麼?中國人搶著用竟和失業潮有關?AI焦慮Fomo/個資外洩疑雲全揭露 | 更多文章 )
輝達為何不再只押GPU,而是走向更開放的平台策略?
另一個值得注意的地方,是輝達現在並沒有把CPU戰略做成封閉路線。輝達近年不只推出自家Arm架構CPU,也在2025年5月對外開放NVLink技術授權,並與英特爾、高通、富士通、Arm等展開合作,同時支援RISC-V。這背後傳達出的訊息很清楚:輝達不想只賣一顆GPU,而是想確保無論客戶未來用哪種CPU、哪種異質運算架構,最後都能和輝達GPU網路與平台整合。Harris也強調,輝達雖然正在打造基於Arm的CPU,但同時也投資x86社群與整體生態系統。這代表輝達真正要守住的,不只是某一顆晶片,而是整個AI資料中心的主導權。當市場進入代理型AI、推理需求暴增、tokens數量指數級成長的時代,單靠一種硬體不可能通吃全部工作。輝達現在的方向,就是讓自己不論在CPU、GPU,甚至其他加速硬體的搭配關係裡,都能維持核心位置。














































