OpenAI 設定 2030 年 30GW 算力目標 AI 基礎建設與電力挑戰升溫

OpenAI 設定 2030 年 30GW 算力目標 AI 基礎建設與電力挑戰升溫

2026/04/23

OpenAI 近期宣布,目標在 2030 年前將 AI 計算能力擴張至 30GW,顯示其在生成式 AI 時代的長期野心,同時凸顯 AI 產業對電力與基礎建設的龐大需求正成為全球能源議題。

OpenAI 近期公開表示,目標於 2030 年前將其 AI 計算能力擴張至 30GW(千兆瓦)的規模,這個數字遠超出許多國家單一城市的用電需求,顯示生成式 AI 巨頭對未來算力布局的長期野心,也使 AI 產業對電力、土地、冷卻水資源等基礎建設的壓力再度浮上檯面。

30GW 的算力容量相當驚人:以傳統資料中心每 MW(百萬瓦)對應數千顆 GPU 的估算,30GW 代表數百萬顆頂級 AI 晶片,遠超現階段全球 AI 資料中心的總規模。OpenAI 若要達成此目標,必須與電力公司、房地產開發商、晶片供應商建立更加緊密的合作,甚至可能主動投入電廠、資料中心建設與水電設施。

這項宣告與近期業界趨勢一致。微軟、Google、Meta、Amazon 等雲端巨頭皆已宣布上百億至千億美元規模的資料中心擴建計畫;核能領域也因 AI 需求而出現復興,多家業者與雲端公司簽訂長期核電合約,甚至重新啟用已除役的反應爐。OpenAI 與軟銀、Oracle 合作的「Stargate」計畫,正是此方向的代表性布局。

在技術層面,支撐 30GW 算力的不只是晶片數量,更包括供電穩定性、冷卻效率與網路架構。Google 剛公布第 8 代 TPU 8t 與 8i,走向訓練與推論分工,也是為了在單位功率下盡可能提升 AI 工作負載。業界分析人士指出,隨著模型參數與使用量上升,AI 廠商必須從「堆晶片」轉向「每瓦每美元最大化」的系統設計策略。

然而,龐大算力需求也帶來多重挑戰。首先是電力供應:許多國家既有電網難以承受大規模 AI 資料中心湧入,發電、輸電與儲能皆需全面升級。其次是環境議題,AI 資料中心冷卻耗水,對水資源吃緊地區可能帶來爭議。第三是社會議題,巨量投資推升特定地區不動產與電價,已在美國部分州與歐洲引發居民反彈。

對台灣產業而言,OpenAI 的 30GW 目標代表長期訂單潛力。從台積電、聯發科到鴻海、廣達、緯創、技嘉等伺服器與散熱供應商,皆是 AI 基礎建設供應鏈的重要環節。亞光與美國 Frore Systems 合作推進 AI 資料中心液冷散熱,即是典型案例。同時,台灣電力政策也將受到間接影響——若本地 AI 資料中心建置加速,供電穩定性將成為重要議題。

對使用者而言,30GW 的算力意味未來 AI 服務將更強大、更快速、更個人化,但也可能推升運算服務的價格基準。未來觀察重點在於 OpenAI 是否公布具體的資料中心選址、電力合約,以及 Stargate 等合作計畫的實際進度。