跳转到主要内容

NVIDIA HGX A100 Systems super荷电A100 80G PCIe, NDR 400G InfiniBand和Magnum IO加速AI和HPC

NVIDIA HGX AI超级计算平台
NVIDIA HGX AI超级计算平台

NVIDIA已经增加了NVIDIA A100 80GB PCIe GPU,NVIDIA NDR 400G InfiniBand网络,NVIDIA Magnum IO GPUDirect存储软件以其HGX AI超级计算平台提供极致性能,使工业HPC得以创新。HGX平台目前正被高科技产业先驱通用电气(General Electric)使用,该平台将HPC创新应用于计算流体动力学模拟,指导大型燃气轮机和喷气发动机的设计创新。A100张量核心gpu提供了前所未有的HPC加速,以解决复杂的AI、数据分析、模型训练和仿真挑战。HPC系统需要无与伦比的数据,通过NVIDIA InfiniBand和Magnum IO GPUDirect Storage支持GPU内存和存储之间的直接内存访问。

NVIDIA A100 80GB PCIe性能增强用于AI和HPC

A100 80GB PCIe GPU可提高GPU内存带宽25%,提供80GB HBM2e高带宽内存。其巨大的内存容量和高内存带宽允许存储更多的数据和更大的神经网络,最大限度地减少节点间的通信和能源消耗。与更快的内存带宽相结合,它使研究人员能够实现更高的吞吐量和更快的结果,最大化他们的it投资的价值。A100 80GB PCIe由英伟达安培架构驱动,该架构具有多实例GPU (MIG)技术,可为较小的工作负载(如AI推理)提供加速。MIG允许HPC系统在保证服务质量的情况下扩展计算和内存。除了PCIe外,还有四路和八路NVIDIA HGX A100配置。

下一代NDR 400Gb/s ib交换机系统

HPC系统,需要无与伦比的数据,通过NVIDIA InfiniBand增压。NVIDIA Quantum-2固定配置交换机系统每个端口提供64个NDR 400Gb/s ib端口(或128个NDR200端口),提供比HDR ib高3倍的端口密度。NVIDIA Quantum-2模块交换机提供可扩展端口配置,最多2048个NDR 400Gb/s InfiniBand端口(或4096个NDR200端口),总双向吞吐量为1.64 pb /s,是上一代的5倍。与上一代相比,2048端口交换机提供了6.5倍的可伸缩性,使用DragonFly+网络拓扑,只需三跳就可以连接100多万个节点。

Magnum IO GPUDirect存储软件

Magnum IO GPUDirect Storage提供了一个直接的路径,使应用程序能够从较低的I/O延迟中获益,并使用网络适配器的全部带宽,同时降低CPU的利用率负载,并管理增加的数据消耗的影响。

相关的职位


评论

加入20 k +用户

我们永远不会给你发垃圾邮件。

指示要求

成为我们不断发展的社区的一份子。


Baidu