供應鏈數據顯示,2024年AI服務器出貨量同比激增46%,但2025年增長曲線將受三大關鍵因素擾動:??英偉達GB系列機架交付進度??、地緣政治風險,以及由開源模型DeepSeek引發的行業連鎖反應。目前主流機構給出28%基礎增長預期,但實際增幅可能在20%-35%區間劇烈波動。
微軟、Meta等超大規模云服務商已明確將2025年AI基礎設施預算上調30%,這為base case情境提供支撐。不過行業觀察發現,GB200/GB300機架因??系統驗證周期延長??,可能迫使亞馬遜等客戶轉向HGX架構過渡。更值得關注的是,DeepSeek等開源模型的崛起正改變技術路線選擇——據供應鏈消息,至少三家頭部CSP已秘密啟動基于自研ASIC的推理服務器項目。
在worse case模型中,GB機架出貨延遲與??ASIC替代加速??可能形成雙重壓制。某ODM廠商透露:"GB300需要的液冷解決方案測試周期比預期長6-8周,而客戶對B100采購訂單的附加條款明顯增加了技術驗證要求。"與此同時,采用DeepSeek模型的邊緣計算廠商正嘗試用4顆MI300X替代傳統8卡配置,這種"減半效應"可能重塑2025年GPU需求結構。
bullish case情境則暗藏產業變數:美國Stargate計劃刺激的政府訂單可能意外填補消費級AI需求缺口。值得注意的是,??推理工作負載占比??已從2023年的38%攀升至當前44%,TrendForce預測該數值2025年Q4或將觸及49%。某半導體設備商高管指出:"我們接到的ASIC光刻機訂單中,推理芯片制程要求普遍比訓練芯片低1-2個技術節點,這顯著降低了CSP的試錯成本。"
行業共識認為,2025年將成為AI基礎設施的??架構分水嶺??:云端訓練集群繼續依賴英偉達全棧方案,但推理市場將呈現ASIC、GPU、FPGA多元并存的局面。最新流片數據顯示,頭部CSP自研推理芯片的晶體管密度已達同期H100的83%,而成本僅為其62%——這種性價比優勢正在改寫傳統GPU的統治地位。