AI浪潮從終端裝置一路延伸至雲端運算,全球IC設計業者的競爭,也從晶片架構、先進製程,進一步推進到背後的研發算力。聯發科(2454)今(7)日宣布,位於苗栗銅鑼科學園區的銅鑼研發資料中心正式啟用,這不只是聯發科支撐全球營運與研發需求的新據點,更是該公司因應AI世代,從邊緣AI走向雲端AI的重要算力基礎設施。
聯發科表示,銅鑼研發資料中心擁有全台首座以NVIDIA DGX B200平台驅動的NVIDIA DGX SuperPOD運算叢集,打造AI高算力運算平台,可支援大規模AI模型訓練與即時推論需求。同時,該中心也是全台第一座大規模導入新式節能浸沒式冷卻技術的研發資料中心,並採用晶圓廠等級的穩定供電系統設計,為未來先進產品研發預先儲備能量。
聯發科技總經理暨營運長陳冠州表示,聯發科在AI產業大趨勢下擁有許多成長機會,並積極投資高效能運算平台、Wi-Fi 7/Wi-Fi 8、5G衛星通訊、6G、先進製程以及先進封裝等關鍵技術,布局從邊緣AI到雲端AI的解決方案。他指出,今年啟用的銅鑼研發資料中心,不僅展示聯發科在龐大AI商機中長期布局全球研發與營運、朝成長目標穩步前行的決心,也以節能、永續的高標準建置,實現聯發科對永續的承諾。
月處理1380億Token,AI算力需求半年翻倍成長
聯發科資訊工程本部全球資訊服務副處長黃博揚表示,銅鑼研發資料中心的兩大技術重點,一是支援全球AI業務布局的高算力平台,二是導入創新的浸沒式冷卻技術。其中,AI算力平台透過NVIDIA DGX B200與SuperPOD架構,將多個運算節點進行最佳化整合,建立大規模運算叢集,用以支援聯發科每月龐大的AI模型訓練與即時推論需求。
黃博揚指出,聯發科每月處理的AI語言運算量已超過1380億個Token,模型訓練方面,每月可達成超過2.4萬次訓練迭代。根據聯發科資料,透過NVIDIA NIM推論微服務、TensorRT-LLM以及其他軟體開發架構,該平台可將推論速度提升40%,並將Token傳輸量提高60%,支援聯發科從邊緣到雲端各類高階產品研發需求。
黃博揚也進一步補充,聯發科去年底曾對外揭露每月約600億個Token的公開數字,如今已成長至1380億個Token,顯示AI運算需求在短時間內快速放大。不過他也提醒,Token僅是衡量AI語言模型運算的一項指標,對聯發科這類IC設計公司而言,研發算力還有另一個極為關鍵的應用場景,也就是EDA。
「其實我們的算力不只是focus在AI算力,聯發科很大一塊、最重要的業務在IC設計,IC設計就是EDA這個生態系。」黃博揚表示,聯發科每年EDA job超過千億次,這類工作負載很難以Token衡量,但同樣是銅鑼研發資料中心所要支撐的重要算力需求。

從手機、AI PC到AI ASIC,資料中心支撐所有研發專案
聯發科過去長期在邊緣AI市場扮演關鍵角色,產品應用涵蓋智慧型手機、平板、筆電、物聯網、車用電子與各類AI Edge Device。隨著AI模型、AI代理與資料中心需求快速成長,聯發科近年也積極往雲端AI、高效能運算與AI ASIC等方向推進。
黃博揚透露,銅鑼研發資料中心並不是只支援特定熱門專案,而是支援聯發科所有產品線與研發專案,包含但不限於AI ASIC、手機、軟體開發與各類晶片設計工作。他指出,AI應用不只涉及硬體設計,也包含軟體開發,因此銅鑼資料中心所提供的算力,將廣泛支援聯發科不同研發場景。
針對未來是否可能採用聯發科自家AI ASIC,黃博揚也回應,若未來公司自己的產品是最適合工作負載的選項,「沒有理由不用」。不過他強調,資料中心導入任何算力,前提仍是支援研發工作負載,而不是為了採購而採購。

自建資料中心,關鍵在速度、能力與研發需求
隨著AI算力需求攀升,企業可選擇自建資料中心,也可透過雲端或外部資料中心取得算力。黃博揚表示,聯發科在決定自建銅鑼研發資料中心前,已評估過不同方案,包含雲端服務、電信業資料中心與其他外部資料中心等選項。最終選擇在銅鑼自建,主要是基於如何最快支援營運快速成長、維持所需功能與能力等多項因素綜合考量。
至於外界關心銅鑼研發資料中心總投資金額,黃博揚未揭露具體數字。他說明,資料中心投資不只是建物,也包含基礎設施、營運維護與內部算力,且會隨著業務成長與研發需求持續擴張,因此很難用單一金額概括。不過他強調,銅鑼研發資料中心將持續支持聯發科算力、營運與研發專案,「確定是一個大筆的投資在台灣」。 (相關報導: 不只手機晶片!聯發科AI資料中心布局成形,ASIC、CPO、3.5D封裝全面推進 | 更多文章 )
聯發科表示,銅鑼研發資料中心採模組化設計,規劃分為三期建置,第一期已於2026年完工啟用,未來將依不同階段業務成長與實際需求,彈性逐步投入建置資源。這座資料中心不只是硬體設施,更是AI世代下,支撐聯發科全球研發競爭力的關鍵底座。















































