🔥 AMD 正在迎接 2026–2030「爆炸式成長」關鍵轉折:Meta 的百億美元 AI 佈局,正讓 AMD 走向 5–6 倍擴張! 🔥
今年科技界最關鍵的兩件事:
👉 Meta AI CapEx 爆噴到歷史最高
👉 AMD 成為主力非 Nvidia 供應鏈,市佔開始跳升
很多人以為 AI 是熱潮,但從 Meta—全球最激進擴建 AI 超級資料中心的巨頭—的數字來看:
真正的超級循環還沒開始。
💰 ① Meta 2025 CapEx:從 390 億 → 700–720 億美元,大幅年增 81%
🔹 AI 硬體(GPU/CPU/伺服器)占 60–70%(420–500 億美元)
🔹 資料中心建設 20–25%(140–180 億)
🔹 網路/供電/散熱 10–15%(70–110 億)
Meta 的目標很明確:
2025 年底 GPU 數量突破 130 萬顆,成全球最大 AI 運算企業。
這些 GPU 用在哪?
→ Llama 405B、Reels AI、推薦引擎、影像生成、AI 助理、廣告 ranking
→ 幾乎全部服務都 AI 化。
⚡ ② Meta 為什麼大量改用 AMD?不是賭注,是策略性避險
Meta GPU 支出比例如下:
Nvidia:58–70%
AMD:快速上升中
為何導入 AMD?
🔹 成本較 Nvidia 便宜 20–30%
🔹 推論效率高(尤其 Llama 系列)
🔹 ROCm 生態成熟度已達 80% CUDA parity
🔹 大型 hyperscalers 想避免被單一廠商綁死
🔹 供應鏈更穩、產能可談、客製化更快
🚀 ③ AMD MI 系列在 Meta 的部署(真的超大規模)
🔥 MI300X(現行)
🔹 Meta 已部署 25 萬+ 顆
🔹 效能等同 60 萬顆 Nvidia H100
🔹 處理 70% 推論工作負載(AI 貼圖、生成工具)
🔥 MI350 / MI355X(2025 H2)
🔹 Meta 預計導入 25–30 萬顆
🔹 推論效能比 Nvidia H200 快 1.5 倍
🔹 成本降低 40%
🔹 與 Meta 共同開發 ORW 機架
🔥 MI450(2026)
🔹 預估採購 80 萬+ 顆
🔹 Helios Rack:72 GPU / 6.4 EFLOPS
🔹 成 2026–2028 Meta 超級叢集主力
🏭 ④ Meta 在全球部署超過 150 萬顆 AMD EPYC CPU
這些 CPU 負責:
🔹 記憶體密集型推薦系統
🔹 深度學習排名模型
🔹 Meta 大規模推論服務 backbone
2026「Venice」架構因 chiplet 架構革新 → 大幅提升採購量。
🧨 ⑤ 但真正讓 Meta AI 擴張「解鎖兩倍能量」的,是 Blue Owl Creative Financing
Meta Q3 公告的 CapEx 是 700–720 億,但因為 Blue Owl JV(專案公司 SPV),實際能用的 AI 基建預算是:
👉 900–1000 億美元級別(高達 500–600MW 額外擴建能力)
Blue Owl 模式讓 Meta「不傷資產負債表」就能加速 AI 建設
🔹 Meta 只出 20% 股權(54 億)
🔹 Blue Owl 承擔 80%(PIMCO 主導 180 億債券)
🔹 Meta 還能拿到 30 億現金回籠
🔹 再透過 4 年租賃反租 → 不算長期負債
👉 類似「外部資金替你蓋資料中心,你用租的,但你操控全部營運」。
這個模式的重要性?
🔹 Meta 不再被 GAAP CapEx 上限綁住
🔹 不被電力、土地、時間限制拖住
🔹 資料中心建設速度提升 2–3 倍
🌋 ⑥ Hyperion(路易斯安那州)= AI 界的超級核電廠
🔹 2.2 GW 規模 → 等同「兩座核電廠」
🔹 2027–2028 容納 50 萬+ 顆 GPU
🔹 目標成為 全球最大 AI cluster
🔹 AMD Helios Rack 將成主力架構
這是 Meta 的「3–5GW 長期擴建計劃」的起點。
🌈 ⑦ 這對 AMD 的意義 = 2026–2030 黃金五年,即將開始
記住這句最重要的:
因為 Meta 的創新融資模式,AMD 的 CPU/GPU 採購量提升 1.5–2 倍。
市場過去低估 AMD 的原因是:
「Meta CapEx 上限」
「電力上限」
「資料中心建設速度」
但 Blue Owl JV 徹底毀掉這些限制。
AMD 數字預估(2026–2030):
🔹 年複合成長 40–50%
🔹 營收從 2025 約 340 億 → 2030 1800–2200 億
🔹 5–6 倍擴張
🔹 MI 系列正式成為全球推論主力選項
🔹 EPYC 因 Venice、Turin、Zen6 成長曲線再推一波
📌 總結:AMD 正在迎接歷史級別的成長循環
Meta 的正式訊號是:
AI 部署才剛剛開始,2026 才進入高速期。而 AMD 是這次 Llama、推論、高效 AI 成本戰的最大受益者。