![]()
4月20日消息,據外媒Wccftech報道,處理器大廠AMD有望拿下人工智能技術大廠Anthropic的訂單,將采購AMD下一代Instinct MI450加速器提供算力支持。
報道稱,在AI 算力需求爆發與GPU 供應持續緊繃的背景下,大型科技公司逐步降低對英偉達的依賴,而是開始導入多元化的算力來源,包括AMD GPU與自研芯片,以降低成本并分散供應風險。
AMD近年積極切入AI數據中心市場,此前已取得OpenAI與Meta等客戶的訂單,其中與Meta更是簽下了約6GW 規模的算力采購訂單,涵蓋多個世代Instinct GPU加速器。
根據規劃,AMD 預計于今年推出Instinct MI400 系列(包含MI450X 與MI430X),采用CDNA 5 架構,計算性能與內存帶寬同步升級。官方數據顯示,該系列算力最高可達40 PFLOPS(FP4)與20 PFLOPS(FP8),約為前一代MI350 系列的兩倍。
此外,MI400 系列還將導入HBM4,容量由288GB(HBM3e)提升至432GB,增幅達50%,同時帶寬提升至19.6TB/s,顯著高于上一代產品。此外,單GPU 對外帶寬達300GB/s,有助于提升大規模AI 模型訓練與推論效率。
AMD MI400 系列也直接對標英偉達下一代架構,主打在HBM容量與機架間傳輸(scale-out)頻寬具備優勢,分別達競品的1.5 倍,其余如FP4 / FP8 算力與內存帶寬則維持同等水準。
不過,業界普遍認為,AMD要進一步擴大市占,仍需時間突破軟件生態門檻。相較之下,英偉達長期建立的CUDA 生態系在開發工具、框架支援與工程師熟悉度上仍具明顯優勢,而AMD 采用的開源ROCm 平臺雖具彈性,但整體成熟度與使用便利性仍在追趕階段。
另一方面,Anthropic近年一直在積極布局多元算力來源,目前已同時采用英偉達GPU、Amazon Trainium,以及與Google與博通合作取得TPU 資源。Anthropic還透露,已簽署數GW 規模的下一代TPU 算力協議,預計自2027 年起陸續上線,以支援其Claude 模型發展。
市場觀察指出,大型AI廠商正從“單一GPU 依賴”轉向“多供應商+自研芯片”并行模式。一方面可降低對單一供應商的依賴風險,另一方面也有助于壓低算力成本。
此外,隨著Anthropic 與博通關系深化,未來也可能進一步投入自研ASIC 芯片,強化長期算力自主能力。
編輯:芯智訊-林子
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.