AMD vs NVIDIA:AI 晶片戰爭關鍵拐點
2025 年中,NVIDIA 於 35–40 倍預期本益比,而 AMD 約 34 倍。若 AMD 成功獲得 10% 資料中心 GPU 市佔,其營收將擴增至現有水準的 1.5–2 倍以上,對應 EPS 將於 2026 年可能突破 $6。大叔想針對看到的一篇文章,分享給大家一需看法。謝謝
背景與產業變局
生成式人工智慧(Generative AI)已經重塑整個科技業與資料中心市場的重心。隨著 ChatGPT、Claude、Gemini 等大語言模型(LLM)對運算資源的爆炸性需求,GPU 正成為資料中心新黃金資產。在這場硬體資源與軟體生態的雙重競賽中,NVIDIA(#NVDA)處於絕對領先地位,而 AMD(#AMD)則被寄予厚望,作為產業中唯一擁有先進 GPU 架構與資料中心晶片堆疊實力的挑戰者。
CUDA vs ROCm:軟體生態的對決
CUDA 是 NVIDIA 建構 AI 獨大地位的核心。它是一套從開發者框架(PyTorch、TensorFlow)到驅動層的完整封閉式平台,讓開發者與企業可以無縫整合。
AMD 的 ROCm(Radeon Open Compute)是開源平台,但過去幾年問題重重。根據 Dell 一位高管透露:「舊版 ROCm 的 Bug 太多,穩定性不足,難以規模部署。」但他同時指出 ROCm 的最新版本已明顯改進,Bug 減少,效能穩定性上升,令人期待 MI400X 上的整體表現。
MI400X 對決 Vera Rubin:2025 大戰前哨
AMD 預計於 2025 年發佈 MI400X,對標 NVIDIA 的 Vera Rubin 晶片(B200 升級版)。MI400X 擁有更高的 HBM 記憶體頻寬,能在推理領域展現出更具競爭力的表現。雖然訓練任務方面仍落後 NVIDIA,但若能達到 B200 的 80% 性能,且價格有競爭力,將改寫市場格局。
橫向擴展能力與超大規模客戶策略
NVIDIA 依賴 Mellanox 為其提供橫向擴展(scale-out)網路能力,但 AMD 正與 Broadcom(AVGO)與 Dell 合作,建立等效的水平擴展系統。Dell 的系統架構師指出:「AMD 將有能力提供與 NVIDIA 類似的運算網路堆疊。」
此外,雲端業者如 Microsoft Azure、Google Cloud 正在尋找 NVDA 的替代方案,以降低供應鏈風險與成本壓力。
Lepton 平台與客戶排擠效應
NVIDIA 推出名為 Lepton 的雲端 GPU 管理平台,目標是建立類似 AWS 的 GPU 雲平台生態。但這可能會激怒超大規模雲端客戶(Hyperscalers),因為 NVIDIA 不再僅是供應商,而是潛在競爭者。
這些訊號可能促使更多雲服務業者考慮與 AMD 展開更緊密合作。
AMD 成本結構與推理優勢
MI300X 擁有 192GB HBM3 記憶體,遠高於 H100 的 80GB,這對單模推理有明顯優勢。推理任務越來越重要,尤其在資料中心邊緣部署方面,而這正是 MI400X 可以發揮優勢的場域。
客戶接受度與軟體支援
如果 ROCm 的表現穩定且與 PyTorch 等主流 AI 框架整合順利,業者將不再需要仰賴 CUDA。「我們不需要打敗 NVIDIA,只要夠用、穩定、成本低,市場就會自然分配資源。」Dell 高層表示。
目前 AMD 僅佔 GPU 市場的 3–5%,但他預估若 ROCm 表現佳,市佔率可望翻倍至 10%。
資料來源:






翻倍,筆記。