聯發科啟用銅鑼研發資料中心 全台首座 NVIDIA SuperPOD 算力中心
2026/05/08
聯發科旗下銅鑼科學園區研發資料中心於 5 月 7 日正式啟用,最大亮點是擁有全台首座以 NVIDIA DGX B200 平臺建置的 SuperPOD 超級算力中心。這座新設施將協助聯發科內部進行邊緣 AI 與雲端 AI 解決方案的研發工作,象徵台灣在「AI 硬體研發基礎設施」這個關鍵環節正式跟上全球第一線的競爭水準。
從技術背景看,NVIDIA DGX SuperPOD 是 NVIDIA 為 AI 模型訓練與研發所推出的「整套解決方案」,將多臺 DGX 伺服器透過高速 NVLink 與 InfiniBand 互連,形成可同時運行超大規模 AI 訓練任務的算力叢集。一座 DGX B200 SuperPOD 的算力相當於數百張單獨的 GPU 卡組合,且具備統一的軟硬體調度層,研發人員可以更高效率地進行模型訓練、推論測試與架構優化。
對聯發科而言,SuperPOD 的策略意義可分三層。第一,加速旗下天璣(Dimensity)系列 SoC 在 AI 端側推論能力的迭代——這些晶片需要透過大規模實驗找出最佳的 NPU 架構、量化策略、推論引擎優化方案。第二,深化與 NVIDIA 的策略合作關係,雙方在 AI PC、汽車 AI、邊緣運算等領域已多有合作,SuperPOD 等於把基礎設施層的綁定再加一層。第三,為 OpenAI 等可能的客戶(如先前傳出的 OpenAI 自家手機處理器訂單)提供強大的研發支援能力。
對台灣 AI 產業整體,這項啟用具備指標意義。過去台灣業者在 AI 模型訓練上多依賴海外雲端資源(AWS、Azure、GCP),不僅成本高昂,也存在資料外流疑慮。聯發科自建 SuperPOD 等於建立「主權級 AI 算力」的本土範例,未來鴻海、廣達、台積電、聯電等大廠可能跟進,台灣將形成具備規模的本土 AI 研發算力池。
對 NVIDIA 而言,這是 DGX SuperPOD 在台灣的指標性部署案例。NVIDIA 過去主要把 SuperPOD 賣給北美超大型雲端業者,亞洲市場的部署相對保守。聯發科這座 SuperPOD 等於為亞洲企業客戶提供成功樣板,NVIDIA 在台灣的潛在客戶名單將大幅擴張。
對台廠夥伴的延伸機會也很顯著。SuperPOD 不只是 GPU 卡,整個系統需要伺服器組裝、機櫃、液冷散熱、電源管理、網通交換器、機房工程等多項配套。這座聯發科 SuperPOD 由台廠夥伴打造,為其他台廠未來導入提供完整的供應鏈藍圖。
未來觀察重點將是聯發科 SuperPOD 在實際 AI 研發加速的具體成果、是否會持續擴增至更高規格(如 DGX GB200 NVL72)、以及其他台廠是否會跟進類似的本土 SuperPOD 部署。當「AI 算力主權」成為國家級議題,聯發科的這座 SuperPOD 是台灣交出的第一張答卷。