Grok-3所涉及的训练量是Grok 2的10倍,建立在xAI孟菲斯的AI超级计算机集群上。该集群第一阶段在122天内建成了拥有10万块NVIDIA H100 GPU的超级计算集群,第二阶段拓展到20万块GPU仅用了92天。基准测试结果显示,Grok-3在多个数学和科学问题上表现出色,超过了其他竞争模型。
xAI计划在未来几个月开源Grok-2,并继续加强数据中心建设。马斯克提到,下一个计算集群将成为世界上最强大的集群,能耗达到1.2GW。此外,xAI正在接洽潜在投资者,计划筹集约100亿美元资金,使公司估值达到约750亿美元。
Grok-3是在合成数据上接受训练的,并通过检查数据来反映错误以达到逻辑一致性。这次发布展示了Grok 3在训练集群规模和用电量上的优势,未来xAI可能还会继续押注大算力AI的发展路径。不过,也有网友认为应更多关注效率更高的进步,而不仅仅是规模和能耗。
(责任编辑:卢其龙 CM0882)