马斯克透露,为推动Grok的训练进程,他已投入23万块GPU,其中3万块为GB200,用于Colossus 1超算集群训练。不仅如此,几周后Colossus 2也将迎来第一批55万块GB200和GB300投入训练,同时他还引用黄仁勋的话,强调xAI的速度优势。
Grok训练的GPU投入情况
马斯克明确表示,目前有23万块GPU被用于在名为Colossus 1的超算集群中训练Grok,其中GB200型号的GPU就有3万块。并且,在接下来的几周内,Colossus 2超算集群中,第一批55万块GB200和GB300也将上线参与到Grok的训练工作中。
对xAI速度的强调
马斯克在介绍相关GPU投入情况时,引用了黄仁勋的话————“xAI的速度是无与伦比的”,以此来凸显xAI在训练进程等方面的高效。
以上文章由 AI 总结生成