消息称英伟达 H200 芯片 2024Q3 大规模交付,B100 明年上半年出货
据哈迈百科此前报道,OpenAI 4 月在旧金山举办了一场研讨会,英伟达首席执行官黄仁勋亲自出席,共同宣布交付第一台 Nvidia DGX H200。
H200 作为 H100 的迭代升级产品,基于 Hopper 架构,首次采用了 HBM3e 高带宽内存技术,实现了更快的数据传输速度和更大的内存容量,对大型语言模型应用表现出显著优势。
根据英伟达官方发布的数据,在处理诸如 Meta 公司 Llama2 这样的复杂大语言模型时,H200 相较于 H100 在生成式 AI 输出响应速度上最高提升了 45%。
供应链指出,目前待出货的客户端订单仍多集中于 HGX 架构的 H100,H200 比重有限,因采用配货制,目前各家终端系统合作伙伴的出货主力 H100 GPU,到货时间最长仍可能达 20 周。
消息称 B100 将于明年上半年出货。英伟达 CEO 黄仁勋此前表示,从 B100 开始未来所有产品的散热技术都将由风冷转为液冷。英伟达 H200 GPU 的 TDP 为 700W,保守估计 B100 的 TDP 接近千瓦,传统风冷不能满足芯片工作过程中对于散热需求,散热技术将全面向液冷革新。