免费发布消息

马斯克投入23万块GPU训练Grok,Colossus 2后续将再投入55万块

   2025-07-23 00
核心提示:马斯克透露,为推动Grok的训练进程,他已投入23万块GPU,其中3万块为GB200,用于Colossus 1超算集群训练。不仅如此,几周后Colos

马斯克透露,为推动Grok的训练进程,他已投入23万块GPU,其中3万块为GB200,用于Colossus 1超算集群训练。不仅如此,几周后Colossus 2也将迎来第一批55万块GB200和GB300投入训练,同时他还引用黄仁勋的话,强调xAI的速度优势。


Grok训练的GPU投入情况

马斯克明确表示,目前有23万块GPU被用于在名为Colossus 1的超算集群中训练Grok,其中GB200型号的GPU就有3万块。并且,在接下来的几周内,Colossus 2超算集群中,第一批55万块GB200和GB300也将上线参与到Grok的训练工作中。


对xAI速度的强调

马斯克在介绍相关GPU投入情况时,引用了黄仁勋的话————“xAI的速度是无与伦比的”,以此来凸显xAI在训练进程等方面的高效。


以上文章由 AI 总结生成

 
反对 0举报 0 收藏 0 打赏 0评论 0
 
更多>同类资讯
推荐图文
推荐资讯
点击排行