AI导读:

英伟达H100芯片组在MLPerf基准评测中刷新了所有组别的纪录,成为唯一能够完成所有测试的硬件平台。在GPT-3大语言模型训练测试中,英伟达与CoreWeave合作,创造了新的业界标准。

当地时间周二,机器学习及人工智能领域开放产业联盟MLCommons公布了MLPerf基准评测的最新数据。在人工智能算力表现的测试中,英伟达H100芯片组表现出色,不仅刷新了所有组别的纪录,还成为唯一能够完成所有测试的硬件平台,彰显了其卓越的性能。

(来源:英伟达、MLCommons)

MLPerf由学术界、实验室和产业界的领袖组成,其发布的AI性能评测基准在国际上享有权威地位。Training v3.0版本涵盖了视觉、语言和推荐系统等多个领域,共包含8种不同的负载。这些负载旨在测试设备供应商完成基准任务所需的时间。

(Training v3.0训练基准,来源:MLCommons)

在备受投资者关注的大语言模型训练测试中,英伟达和GPU云算力平台CoreWeave共同创造了新的业界标准。他们利用896个英特尔至强8462Y+处理器和3584个英伟达H100芯片,仅用时10.94分钟就完成了基于GPT-3的大语言模型训练任务,展示了强大的算力实力。

除了英伟达外,英特尔的产品组合也在该测试中获得了评测数据。由96个至强8380处理器和96个Habana Gaudi2 AI芯片构建的系统,完成同样测试的时间为311.94分钟。然而,与之相比,使用768个H100芯片的平台仅需45.6分钟即可完成测试,进一步凸显了英伟达的优势。

(芯片越多数据越好看,来源:英伟达)

对于测试结果,英特尔表示仍有提升空间。他们指出,通过增加芯片数量,可以进一步提高运算速度。英特尔AI产品高级主管Jordan Plawner透露,Habana的运算结果未来有望实现1.5倍至2倍的提升。尽管Plawner未透露Habana Gaudi2的具体售价,但他表示业界需要第二家厂商提供AI训练芯片,而MLPerf的数据表明英特尔具备满足这一需求的能力。

此外,在中国投资者更为熟悉的BERT-Large模型训练中,英伟达和CoreWeave再次刷新了记录,将测试时间缩短至极端的0.13分钟。在64卡的情况下,测试数据也达到了0.89分钟。BERT模型中的Transformer结构已成为当前主流大模型的基础架构,这一成绩无疑进一步证明了英伟达在AI领域的领先地位。