Meta新增兩大萬卡集群,投入近50000塊英偉達H100GPU

極客網 2024-03-14 11:50:44

Meta日前推出兩個功能強大的GPU集群,用于支持下一代生成式AI模型的訓練,包括即將推出的Llama 3。

據悉,這兩個數據中心的GPU數量均高達24,576塊,專爲支持比之前發布的更大、更複雜的生成式AI模型而構建。

作爲一種流行的開源算法模型,Meta的Llama能與OpenAI的GPT和Google的Gemini相媲美。

Meta刷新AI集群規模

極客網了解到,這兩個GPU集群都采用了英偉達當前功能最強大的H100 GPU,並且比Meta之前推出的大型集群規模要大得多。此前Meta的集群約有16,000塊Nvidia A100 GPU。

據報道,Meta爲此搶購了數千塊英偉達最新推出的GPU。調研機構Omdia在最近的一份報告中聲稱,Meta已經成爲英偉達最大的客戶之一。

Meta工程師表示,該公司將使用新的GPU集群對現有的AI系統進行微調,並訓練更新、更強大的AI系統,其中包括Llama 3。

該工程師指出,Llama 3的開發工作目前正在“進行中”,但並沒有透露何時對外發布。

從長遠來看,Meta的目標是創建通用人工智能(AGI)系統,應爲AGI在創造力方面比現有的生成式AI模型更像人類。

新的GPU集群將有助于Meta實現這些目標。此外,該公司正在改進PyTorch AI框架,使其能夠支持更多的GPU。

兩個GPU集群采用不同架構

值得一提的是,雖然這兩個集群的GPU數量完全相同,都能以每秒400GB的端點相互連接,但它們采用了不同的架構。

其中,一個GPU集群可以通過融合以太網網絡結構遠程訪問直接存儲器或RDMA,該網絡結構采用Arista Networks的Arista 7800與Wedge400和Minipack2 OCP機架交換機構建。另一個GPU集群使用英偉達的Quantum2 InfiniBand網絡結構技術構建。

這兩個集群都使用了Meta的開放式GPU硬件平台Grand Teton,該平台旨在支持大規模的AI工作負載。Grand Teton的主機到GPU帶寬是其前身Zion-EX平台的四倍,計算能力、帶寬以及功率是Zion-EX的兩倍。

Meta表示,這兩個集群采用了最新的開放式機架電源和機架基礎設施,旨在爲數據中心設計提供更大的靈活性。Open Rack v3允許將電源架安裝在機架內部的任何地方,而不是將其固定在母線上,從而實現更靈活的配置。

此外,每個機架的服務器數量也是可定制的,從而在每個服務器的吞吐量容量方面實現更有效的平衡。

在存儲方面, 這兩個GPU集群基于YV3 Sierra Point服務器平台,采用了最先進的E1.S固態硬盤。

更多GPU正在路上

Meta工程師在文中強調,該公司致力于AI硬件堆棧的開放式創新。“當我們展望未來時,我們認識到,以前或目前有效的方法可能不足以滿足未來的需求。這就是我們不斷評估和改進基礎設施的原因。”

Meta是最近成立的AI聯盟的成員之一。該聯盟旨在創建一個開放的生態系統,以提高AI開發的透明度和信任,並確保每個人都能從其創新中受益。

Meta方面還透露,將繼續購買更多的Nvidia H100 GPU,計劃在今年年底前擁有35萬塊以上的GPU。這些GPU將用于持續構建AI基礎設施,意味著未來還有更多、更強大的GPU集群問世。

0 阅读:20

極客網

簡介:極客網,科技使能新商業,提供最in的科技報道及評論。