马斯克:xAI 训练 Grok-3 大模型用了 10 万块英伟达 H100 芯片
马斯克表示,训练 AI 聊天机器人需要数据集,而且从现有数据中清除大型语言模型 (LMM) 的工作量很大。他还谈到了 OpenAI 模型输出训练的几个问题。
他透露 xAI 的 Grok-3 用了 10 万块英伟达 H100 芯片进行训练,预计将于年底发布,相信它会“非常特别”。
H100 是英伟达开发的专门用于处理大语言模型(LLMs)数据的 AI 芯片。每块英伟达 H100 人工智能芯片的价格估计在 3-4 万美元(当前约 21.9 - 29.2 万元人民币)左右,批量购买的话可能会有折扣。
我们简单计算可知,xAI 这里的 10 万块英伟达 H100 价值 30-40 亿美元(哈迈百科备注:当前约 218.68 - 291.57 亿元人民币)。马斯克之前曾提到特斯拉今年从英伟达的采购额估计将在 30-40 亿美元之间,合理推测 xAI 这里用的是特斯拉购买的英伟达芯片进行训练。
相关阅读:
《马斯克:xAI 将于 8 月推出 Grok-2 大语言模型》
《马斯克:特斯拉今年的英伟达芯片采购额或达 40 亿美元》