【新智元导读】黄老板又赢麻了!在最新的MLPerf基准测试中,H100成功创下8项测试纪录。而外媒透露,下一代消费级显卡或在2025发布。
最新MLPerf训练基准测试中,H100GPU在所有的八项测试中都创下了新纪录!
如今,NVIDIA H100几乎已经统治了所有类别,并且是新LLM基准测试中使用的唯一 的GPU。
(资料图片)
3,584个H100GPU群在短短11分钟内完成了基于GPT-3的大规模基准测试。
MLPerf LLM基准测试是基于OpenAI的GPT-3模型进行的,包含1750亿个参数。
Lambda Labs估计,训练这样一个大模型需要大约3.14E23FLOPS的计算量。
11分钟训出GPT-3的怪兽是如何构成的
在LLM和BERT自然语言处理 (NLP) 基准测试中排名最高的系统,是由NVIDIA和Inflection AI联合开发。
由专门从事企业级GPU加速工作负载的云服务提供商CoreWeave托管。
该系统结合了3584个NV编程客栈IDIA H100加速器和896个Intel Xeon Platinum8462Y+处理器。
因为英伟达在H100中引入了新的Transformer引擎,专门用于加速Transformer模型训练和推理,将训练速度提高了6倍。
CoreWeave从云端提供的性能与英伟达从本地数据中心运行的AI超级计算机所能提供的性能已经非常接近了。
这得益于CoreWeave使用的NVIDIA Quantum-2InfiniBand网络具有低延迟网络。
随着参与训练的H100GPU从数百个扩展到3000多个。
良好的优化使得整个技术堆栈在要求严苛的LLM测试中实现了近乎线性的性能扩展。
如果将GPU的数量降低到一半,训练相同的模型时间会增加到24分钟。
说明整个系统的效率潜力,随着GPU的增加,是超线性的。
最主要的原因是,英伟达从GPU设js计之初就考虑到了这个问题,使用NVLink技术来高效实现了GPU之间的通信。
在参与测试的90个系统中,有82个系统都使用了英伟达的GPU进行加速。
单卡训练效率
系统集群训练时间对比
英特尔参加测评的系统使用64到96个不等的Intel Xeon Platinum8380处理器和256到389个不等的Intel Habana Gaudi2加速器。
然而,英特尔提交的GPT-3的训练时间为311分钟。
成绩和英伟达相比就稍微有点惨不忍睹了。
分析师:英伟达优势过大
行业分析师认为,英伟达的在GPU上的技术优势是非常明显的。
而它作为AI基础设施提供商,在行业中的主导地位还体现在英伟达多年建立起php来的生态系统粘性上。
AI社区对英伟达的软件的依赖性也非常强。
几乎所有AI框架都基于英伟达提供的底层CUDA库和工具。
而且它还能提供全堆栈的AI工具和解决方案。
除了为AI开发人员提供支持之外,英伟达还继续投资用于管理工作负载和模型的企业级工具。
在可预见的未来,英伟达在行业的领先地位将会非常稳固。
分析师还进一步指出。
MLPerf测试结果中所展现的,NVIDIA系统在云端进行AI训练的强大功能和效率,才是英伟达「战未来」的最大本钱。
下一代Ada Lovelace GPU,2025年发布
Tom"s Hardware自由撰稿人Zhiye Liu也于近日发文,介绍了下一代英伟达Ada Lovelace显卡的计划。
H100训练大模型的能力,毋庸置疑。
只用3584个H100,短短11分钟内,就能训练出一个GPT-3模型。
在最近的新闻发布会上,英伟达分享了一份新路线图,详细介绍了下一代产品,包括GeForce RTX40系列Ada Lovelace GPU的继任者,而前者,是当今最好的游戏显卡。
根据路线图,英伟达计划在2025年推出「Ada Lovelace-Next」显卡。
如果继续沿用当前的命名方案,下一代GeForce产品应该是作为GeForce RTX50系列上市。
根据南美黑客组织LAPSU$得到的信息,Hopper Next很可能被命名为Blackwell。
在消费级显卡上,英伟达保持着两年一更新的节奏。
他们在2016年推出了Pascal,在2018年推出了Turing,在2020年推出了Ampere,在2022年推出了Ada Lovelace。
如果这次Ada Lovelace的继任者会在2025年推出,英伟达无疑就打破了通常的节奏。
最近的AI大爆发,产生了对英伟达GPU的巨大需求,无论是最新的H100,还是上一代的A100。
根据报道,某大厂今年就订购了价值10亿美元的Nvidia GPU。
尽管有出口限制,但我国仍然是英伟达在全世界最大的市场之一。
(据说,在深圳华强北电子市场,就可以买到少量英伟达A100,每块售价为2万美php元,是通常价格的两倍。)
对此,英伟达已经对某些AI产品做了微调,发布了H100或A800等特定SKU,以满足出口要求。
Zhiye Liu对此分析道,换个角度看,出口法规其实是有利于英伟达的,因为这意味着芯片制造商客户必须购买更多原版GPU的变体,才能获得同等的性能。
这也就能理解,为什么英伟达会优先考虑生成计算GPU,而非游戏GPU了。
最近的报道显示,英伟达已经增加了计算级GPU的产量。
没有面临来自AMD的RDNA3产品堆栈的激烈竞争,英特尔也没有对GPU双头垄断构成严重威胁,因此,英伟达在消费侧可以拖延。
最近,Nvidia通过GeForce RTX4060和GeForce RTX4060Ti,将其GeForce RTX40系列产品堆栈又扩大了。
GeForce RTX4050以及顶部的RTX4080Ti或GeForce RTX4090Ti等,都有潜力。
如果迫不得已,英伟达还可以从旧的Turing版本中拿出一个产品,更新Ada Lovelace,给它封个「Super」待遇,进一步扩展Ada阵容。
最后,Zhiye Liu表示,至少今年或明年,Lovelace架构不会真正更新。
参考资料:
https://blogs.nvidia.com/blog/2023/06/27/generative-ai-debut-mlperf/