ICC訊 2025年11月12日,人工智能領域再現重大基礎設施投資。繼OpenAI之后,競爭對手Anthropic宣布將投入500億美元與美國新興云服務商FluidStack合作,在美國多個州建設數據中心。這一趨勢引發了對超大規模云廠商未來發展的深入思考。
自建算力成行業趨勢
Anthropic的首批數據中心將落戶得克薩斯州和紐約州,更多選址正在規劃中,所有設施預計將在2026年內陸續投入運營。值得注意的是,得克薩斯州同時也是OpenAI"星門"項目園區的所在地之一。
目前,這些數據中心的具體容量規模尚未明確,也未確認是否會達到OpenAI追求的吉瓦級規模。分析師指出,設施規模很可能取決于Anthropic在各個建設市場能夠確保獲得的電力供應。
這一決策的背景是,Anthropic在10月底剛剛與谷歌云簽署了價值"數百億美元"的計算合同,計劃使用高達100萬個該云巨頭的TPU芯片。幾乎與此同時,AWS作為Anthropic 110億美元"Rainier項目"合作的一部分,為其激活了近50萬個Trainium2芯片,并計劃在今年年底前將規模擴展至超過100萬顆芯片。
控制權與成本的雙重考量
J. Gold Associates創始人兼首席分析師Jack Gold表示,推動Anthropic和OpenAI自建數據中心的因素有多方面。首要考慮的是控制權——對成本、算力可用性和定制化的全面掌控。本質上,這些AI模型開發商正在通過多元化布局來規避對超大規模云廠商的過度依賴。
Gold補充道,自建設施還能確保模型開發工作的機密性,并更好地掌握數據存儲和處理的位置,這正好契合了數據主權的要求。此外,這些公司通過在美國技術領域進行重大投資,還能獲得政治加分,這似乎是特朗普政府的優先事項之一。
Tekonyx總裁兼首席研究官Sid Nag同樣認為,這一趨勢的核心動機在于控制權。他告訴Fierce:"對于前沿AI模型而言,計算和電力需求極其巨大——超大規模云廠商提供的通用云服務可能成本過高,或無法針對其特定工作負載進行優化。這些企業正在尋求能夠帶來成本/性能優勢的效率提升(包括計算成本和能源成本)。"
對超大規模云廠商的潛在影響
Nag還指出了一個有趣的現象:盡管面臨普遍的算力短缺和配額限制,通過自建基礎設施,Anthropic和OpenAI等公司能夠確保繼續為其企業客戶提供服務。他解釋道:"Anthropic擁有眾多初創企業客戶。他們希望服務這些客戶群體,而不愿將自己的命運完全交給超大規模云廠商。"
當然,自建數據中心意味著Anthropic和OpenAI需要承擔前期風險。Nag表示,這種權衡的回報在于可能實現"隨時間推移,每個模型/推理的邊際成本降低"。
對于超大規模云廠商的影響,Nag認為,如果像Anthropic這樣的大型AI原生企業將更多計算任務轉向自建設施或定制化設施,公有云提供商將"面臨利潤壓力或被邊緣化的風險"。
隨著AI模型領導者們將自己定位為算力巨頭,行業格局正在發生深刻變化。OpenAI和Anthropic的基礎設施投資浪潮,不僅重塑著AI產業的競爭態勢,也可能重新定義未來算力市場的分配格局。