AI 產業向來是一場競賽——但 2026 年 4 月,這場競賽的本質改變了。Meta 宣布與 CoreWeave 簽訂延伸至 2032 年、總額達 210 億美元的 GPU 算力合約,疊加在今年稍早簽署的 142 億美元合約之上。與此同時,公司發布了由 Alexandr Wang 領軍後的首款重要 AI 模型——而 Wang 正是 Meta 以約 140 億美元交易引入、負責統帥其 AI 部門的 Scale AI 創辦人。訊號清晰明確:AI 競爭的前沿已從實驗室移師資料中心。當前最關鍵的決策不是訓練哪種架構,或優化哪個基準測試,而是鎖定多少 GPU、提前多久確保算力,以及企業能在回報到來前承受多大規模的燒錢。對旁觀的企業而言,這一轉變對「哪些 AI 廠商將在 2028 年繼續挺立、能力達到什麼水準」有直接影響。
Meta 為何投入 350 億美元購買 GPU 算力?
Meta 逾 350 億美元的 GPU 總投入,並非分散佈局,而是一次生死攸關的追趕行動。該公司在 2024 至 2025 年的關鍵 18 個月視窗內落後於 OpenAI 與 Google:其 Llama 系列雖在開源層次具競爭力,但在複雜推理任務上明顯遜於 GPT-4 等級的模型。基礎設施差距是重要原因之一——訓練更大、校準更精的模型需要更多 GPU 算時,而 Meta 先前的算力規模尚不足以支撐前沿野心。
CoreWeave 合約改寫了這道算式。CoreWeave 在美國建立了以 GPU 為核心的大規模雲端基礎設施,其叢集專為大規模神經網路訓練而設計。透過簽訂多年合約,Meta 確保了穩定的 GPU 存取權,即便全球需求持續超出供給,也不必在波動的現貨市場與 AI 新創搶奪算力。
| 交易 | 金額 | 期限 | 對手方 |
|---|---|---|---|
| CoreWeave GPU 合約(前期) | 142 億美元 | 2024–2029 | CoreWeave |
| CoreWeave GPU 合約(2026 年 4 月) | 210 億美元 | 2026–2032 | CoreWeave |
| Alexandr Wang / Scale AI 交易 | 約 140 億美元 | 持續進行 | Scale AI / Wang |
| 已承諾 AI 投資總額 | 490 億美元以上 | 多年期 | 多方 |
Alexandr Wang 的加入增添了第二個維度。Scale AI 是高品質訓練資料標注的主導供應商——正是這些由人類標注的資料,讓 AI 模型學會正確行為。透過內化這項能力,Meta 得以更快迭代模型訓練資料,減少對外部廠商的依賴,在越來越重要的邊際競爭中牢牢掌控模型品質。
Meta 的新模型發布對產業意味著什麼?
無論基準測試排名如何,Meta 2026 年 4 月的模型發布在戰略上都具有重要意義。這是 Wang 領軍部門的首款重要模型——向投資人、企業客戶及競爭對手傳遞一個關鍵訊號:龐大的資本投入正在轉化為可見的成果。
時機尤為耐人尋味:模型發布緊隨 210 億美元 CoreWeave 合約宣布,顯示 Meta 正在執行一套協調一致的公信力攻勢。缺乏模型成果的基礎設施投資,形同資本恐慌;缺乏可見基礎設施的模型,則顯得流於願景。兩者在短時間內同步到位,傳遞的是紀律嚴明的執行力,而非倉皇應對。
timeline
title Meta AI 升級時間軸 2024–2026
2024 Q3 : Llama 3 發布 — 開源層具競爭力
2025 Q1 : 首筆 CoreWeave 合約 — 142 億美元
2025 Q4 : Alexandr Wang 交易宣布 — 140 億美元
2026 Q1 : Wang 正式接掌 Meta AI 部門
2026 Q2 : 新前沿模型發布
2026 Q2 : 第二筆 CoreWeave 合約 — 210 億美元對競爭對手而言,此次發布也壓縮了整合優勢的視窗期。原本在等待 Meta 展現前沿能力後才決策的企業客戶,現在有了具體的評估資料。由微軟支持的 OpenAI、Google Gemini 及 Anthropic Claude,都面臨一個更具競爭力的 Meta 爭奪企業合約——而這正是當前前沿 AI 競賽的核心獎項。
AI 基礎設施如何構成競爭護城河?
護城河——可持續的競爭優勢——傳統上偏重軟體的無形資產:專有演算法、網路效應、切換成本。2026 年,AI 為這份清單增添了一個資本密集的實體維度。GPU 叢集是新的護城河,且有四個特性使其特別難以逾越。
其一,供給存在瓶頸。Nvidia 的頂級 AI 晶片由台積電生產,產量有限。超大規模業者、雲端供應商與 AI 實驗室的需求持續超過供給。透過與 CoreWeave 等 GPU 雲端供應商簽訂長期合約,有效將算力從市場中移除,讓後進者無論出價多高,都難以即時取得。
其二,存在時間價值維度。訓練前沿模型是序列性流程——每輪訓練都為下一輪提供參考。提前六個月開始訓練更大規模模型的企業,能透過反覆迭代複利放大這一優勢。今天簽訂的算力合約,將在競爭對手取得等量算力之前,轉化為訓練成果更佳的模型。
graph TD
A[資本承諾<br>多年 GPU 合約] --> B[保留算力<br>競爭對手無從存取]
B --> C[提前開始訓練<br>領先 6–12 個月]
C --> D[模型反覆迭代<br>優勢複利累積]
D --> E[企業客戶獲取<br>切換成本鎖定]
E --> F[收入挹注下輪投資<br>自我強化循環]
G[後進者] --> H[現貨市場 GPU<br>波動且昂貴]
H --> I[訓練延遲<br>能力落後]
style A fill:#e8f4f8
style F fill:#d4edda
style G fill:#fff3cd
style I fill:#f8d7da其三,實體基礎設施的建設週期漫長。從審批到投入使用,資料中心的建設需要 18 至 36 個月。2023 至 2024 年完成算力佈建的企業,今日已在這些設施上進行訓練,而現在才動工的競爭對手,最快也要到 2027 年才能受益。
其四,電力正成為獨立於資本之外的瓶頸。AI 資料中心的耗電量已高到讓電力公司和監管機構成為選址的關鍵因素。具備剩餘電網容量且有政治意願將其分配給 AI 基礎設施的地區十分有限。在電力採購上先行佈局的企業,所享有的優勢是金錢短期內無法彌補的。
2026 年 AI 軍備競賽的資本結構
2026 年 AI 基礎設施投資的規模,在科技產業史上前所未見。最接近的類比——1990 年代的電信光纖建設,或 2010 年代首波雲端資料中心浪潮——事後都伴隨著大規模產業整合,電信案例更出現災難性的產能過剩。當前的建設潮以更快的速度推進,且集中程度更高。
| 公司 | 2025–2026 年 AI 基礎設施承諾 | 主要形式 |
|---|---|---|
| 微軟 | 800 億美元(僅 FY2025) | Azure 擴建、OpenAI 共投 |
| 750 億美元以上 | GCP、DeepMind、TPU 製造 | |
| Amazon | 750 億美元以上 | AWS、Trainium 晶片生產 |
| Meta | 490 億美元以上(已承諾) | CoreWeave 合約、自建資料中心 |
| Oracle | 140 億美元以上(單一密西根專案) | 債務融資資料中心 |
| OpenAI | 400 億美元融資(軟銀輪次) | 模型訓練、推論算力 |
Oracle 資料中心交易尤具啟示性。PIMCO 為 Oracle 密西根州單一園區組建了約 140 億美元的專案債務融資,這種結構在基礎設施金融領域比科技領域更為常見。機構債務市場願意以如此規模承銷 AI 資料中心建設,意味著基礎設施融資已正式進入 AI 產業,在創業投資與企業自有資本之外增添了全新的資金來源。
flowchart LR
subgraph 資金來源
V[創業投資]
C[企業自有資本]
D[基礎設施債務]
P[公開市場]
end
subgraph AI 基礎設施層
GPU[GPU 叢集<br>Nvidia H100 及後繼型號]
DC[資料中心<br>自建與租賃]
PW[電力合約<br>核能與再生能源]
end
subgraph 競爭輸出
M[前沿模型]
I[推論算力]
E[企業合約]
end
V --> GPU
C --> DC
D --> DC
P --> GPU
GPU --> M
DC --> I
PW --> I
M --> E
I --> E
style E fill:#d4edda對企業 AI 採購者意味著什麼?
對 2026 年評估 AI 廠商的 CIO 與技術採購者而言,Meta 的基礎設施行動傳遞了清晰的戰略訊號:決定哪些廠商在 2027 至 2028 年仍能領先的關鍵選擇,正在此刻發生,且以百億美元計算。
這有兩個實際影響。首先,算力豐沛的頂層——微軟、Google、Meta、Amazon、OpenAI——與算力受限的第二梯隊之間的差距,正在擴大而非收窄。選擇第二梯隊廠商的企業,面臨相對前者能力提升放緩的風險,即便當前的基準測試性能具有競爭力。
其次,基礎設施集中度催生了廠商依賴。企業一旦將 AI 深度整合至生產工作流——將模型推論融入內部工具、自動化面向客戶的流程、打造 AI 原生產品——切換廠商的成本便會高昂且具破壞性。2026 年的廠商選擇,實質上是一個 3 至 5 年的承諾。今日的基礎設施豪賭,將決定哪些廠商能在這段時間內維持具競爭力的模型品質。
| 採購考量因素 | 算力豐沛廠商 | 算力受限廠商 |
|---|---|---|
| 能力發展軌跡(2026–2028) | 高度可預期——基礎設施已就位 | 不確定——仰賴資本能否持續取得 |
| 定價穩定性 | 隨效率提升可能下降 | 每次推論成本上升可能帶來壓力 |
| 廠商存續性 | 強健的資產負債表支撐持續投入 | 存在被收購或整合的風險 |
| 模型更新頻率 | 頻繁——龐大訓練預算支援快速迭代 | 較慢——算力預算限制訓練輪次 |
| 企業支援深度 | 人員持續擴編、銷售覆蓋完整 | 可能優先服務大型客戶 |
FAQ
Meta 在 2026 年投入多少 GPU 基礎設施費用? Meta 在 2026 年承諾投入逾 350 億美元的 GPU 算力,包括年初簽署的 142 億美元 CoreWeave 合約,以及 2026 年 4 月額外簽訂、延伸至 2032 年的 210 億美元協議。Meta 的資料中心已裝設數十萬張 Nvidia GPU,是全球最大 GPU 買家之一。
Meta 為何延攬 Alexandr Wang?此舉釋放什麼訊號? Meta 以約 140 億美元的交易邀請 Scale AI 創辦人 Alexandr Wang 執掌其 AI 部門。Wang 將 Scale AI 打造為 AI 訓練資料標注的領導企業。此舉顯示 Meta 認知到 AI 模型品質的決勝關鍵已移至資料與基礎設施層。
Meta 於 2026 年 4 月發布了哪款 AI 模型? Meta 於 2026 年 4 月發布了由 Alexandr Wang 領軍後的首款重要 AI 模型,背後由數十萬張 Nvidia GPU 支撐。這款模型代表 Meta 追趕 OpenAI 與 Google 的具體成果,是 Meta 將 AI 視為核心優先戰略的最明確宣示。
為何 GPU 基礎設施在 AI 競賽中已超越模型創新的重要性? 前沿 AI 模型的架構已趨於收斂,幾乎全數採用 Transformer 設計。差異化已轉向訓練規模、推論吞吐量及持續模型更新能力,三者皆需龐大且穩定的 GPU 算力,後進者難以快速複製。
Meta 的 GPU 投資與其他科技巨頭相比如何? 微軟在 2025 年度單年就承諾 800 億美元的 AI 基礎設施投資;Google 與 Amazon 各自公布逾 750 億美元的多年資本計畫;Oracle 於 2026 年 4 月為密西根州單一資料中心取得 140 億美元融資。Meta 逾 350 億美元的 GPU 合約使其穩居頂級算力投資者之列。
AI 基礎設施軍備競賽對規模較小的 AI 公司意味著什麼? 訓練與部署前沿模型所需的資本已高到讓非超大規模企業難以承受。210 億美元的算力合約所需財力,全球僅少數公司能夠支撐。這股壓力正迫使小型 AI 公司走向垂直應用、雲端夥伴合作,或以被收購收場。
