美大學壓電混合晶片問世 資料中心 GPU 供電效率達 96.2%
2026/05/11
美國大學研究團隊發布突破性的「壓電混合晶片」(piezoelectric hybrid chip),可將資料中心 GPU 的供電效率提升至 96.2%。對全球 AI 資料中心而言,這項突破直擊當前最嚴峻的「電力效率瓶頸」——當 NVIDIA B200 單機功耗達到 14kW、整座 AI 資料中心耗電動輒達數百 MW,每提升一個百分點的供電效率,都可能轉換為數百萬美元的年度電費節省與大量碳排放降低。
從技術背景看,當前資料中心的 GPU 供電架構通常包含多階段轉換:從電網(如 480V AC)到伺服器入口、再到主機板、再到 GPU 核心。每一階段的電壓轉換都會損失能量,傳統架構的整體效率多在 85–90% 之間。對 100MW 規模的 AI 資料中心而言,10% 的轉換損失意味著 10MW 的純粹熱能浪費,每年電費損失可達數百萬美元,且這些熱還需要冷卻系統處理,形成「雙重損失」。
「壓電混合晶片」的核心創新在於利用壓電效應改善高頻電力轉換的效率。傳統的電源轉換器主要使用電感與電容組成 LC 濾波器,但這些被動元件在高頻運作時會有顯著損失。壓電元件則能在某些頻段提供更高效率的能量儲存與轉換,與傳統元件混合使用後,整體系統可達到過去難以企及的 96.2% 效率。對於原本需要在「效率」與「功率密度」之間取捨的設計者,這是一個全新的優化空間。
對 AI 資料中心經濟學的影響極為深遠。以一座 100MW 的 AI 資料中心為例,從 90% 效率提升到 96.2% 意味著減少 6.2MW 的轉換損失,每年可節省數百萬美元電費,並對應減少數萬噸的碳排放。對 Google、Microsoft、Amazon、Meta 等超大型雲端業者,類似技術若能規模化部署,整體 AI 算力成本結構將出現可觀改善。
對台廠電源管理供應鏈的影響值得關注。台達電、台灣大同、致茂電子等業者在資料中心電源領域累積深厚,若能與美方學術團隊合作將壓電技術商業化,將為自家產品線增加新的競爭力。對 NVIDIA、AMD、Intel 等 AI 加速器業者,整合更高效率電源轉換的方案也將提升其產品在「每瓦效能」維度的競爭力。
對全球資料中心產業的長期意義是「電力效率」將成為下一個競爭軸線。過去資料中心的核心競爭力主要在算力規模、機櫃密度、冷卻效率,未來「電力轉換效率」將成為與這些指標並列的關鍵指標。能率先導入新一代供電技術的業者,將在 AI 算力市場取得成本與永續性雙重優勢。
對能源產業的衝擊也需要考量。AI 資料中心若能透過供電效率提升降低總用電量,對全球電網的負荷壓力將有實質改善,這對美國、歐洲、台灣等地的電力供應穩定性都有正面意義。對需要興建新電廠(特別是核電與再生能源)的長期規劃,AI 算力效率提升將是重要參數。
對學術界與業界合作的啟示是「基礎研究」與「產業應用」的鏈結速度正在加快。傳統上,學術研究突破到商業化部署常需要 5–10 年;在 AI 算力極度飢渴的當下,類似突破可能在 18–24 個月內進入商業試點。研究團隊與產業夥伴的早期合作將決定誰能在新技術窗口取得先機。
對台灣高校與研究機構的啟示是「能源效率半導體」可能成為新的研究重點。台灣大學、清華大學、交通大學等若能在類似的高效率電源技術上建立研究團隊,與台廠夥伴合作將具備全球競爭力的可能。
未來觀察重點將是這項技術的量產時程、第一批商業客戶名單、以及其他研究團隊的競爭技術進展。當「AI 算力 = 大量電力」成為產業共識,每一項提升供電效率的技術突破,都將是 AI 時代的新黃金。