当前位置: 首页 > 网络设备 > 服务器 > 英伟达NVIDIA DGX-2

浏览历史

英伟达NVIDIA DGX-2
prev zoom next

英伟达NVIDIA DGX-2

  • 商品货号:HYKJ000194
  • 商品库存: 100
  • 商品品牌:英伟达
  • 商品重量:0克
  • 商品点击数:769

商品描述

商品属性

20180412112117870.jpg

NVIDIA DGX-2 是 NVIDIA 首款 2-petaFLOPS 系统,它整合了 16 个完全互联的 GPU,使深度学习性能提升 10 倍,突破了人工智能速度和规模的障碍。它采用 NVIDIA® DGX™ 软件和基于 NVIDIA NVSwitch 技术构建的可扩展架构,可以帮您应对众多复杂的人工智能挑战。


非同一般的计算能力造就出众的训练性能


  人工智能日益复杂,因而对计算能力的要求比以往更高。NVIDIA DGX-2 集 16 个 NVIDIA 家族最先进的 GPU 的计算能力于一身,可以加速实现 之前无法训练的新人工智能模型类型 。此外,它还具有突破性的 GPU 可扩展性,因此您可在单一节点上训练规模扩大 4 倍的模型,而且其性能达到 8 GPU 系统的 10 倍。


革命性的人工智能网络架构


  通过使用 DGX-2,模型的复杂性和规模再也不受传统架构局限性的限制。现在,您可以利用 NVIDIA NVSwitch 网络架构进行模型并行训练。NVIDIA 首款 2 petaFLOPS GPU 加速器采用的正是这种创新技术,其 GPU 间带宽高达 2.4 TB/s,性能比前代系统提升了 24 倍,并且问题解决速度提高了 5 倍。


将人工智能规模提升至全新水平的最快途径


  现代企业需要快速部署人工智能功能以满足业务需求。DGX-2 提供随时可用的模块化解决方案,打造扩展人工智能的最快途径。凭借用于构建大型深度学习计算集群的灵活网络选项,再结合可在共享基础设施环境中改进用户和工作负载隔离的安全多租户功能,DGX-2 使人工智能扩展得以简化,从而加快了扩展速度。借助加速部署模型和专为轻松扩展而构建的架构,您的团队可以减少构建基础设施所花的时间,节省出更多的时间来提升洞察力。


始终运行的企业级人工智能基础设施


  人工智能对您的业务而言非常关键,因此,您需要专为高可靠性、可用性和可维护性 (RAS) 而设计的平台来为您保驾护航。DGX-2 专为 RAS 而打造,可以减少计划外停机时间,简化可维护性,并保持运行连续性。DGX-2 是一款企业级产品,依托 NVIDIA 专业知识,专为满足严格的全天候运行要求而构建,旨在使重要的人工智能工作保持正常运行。




NVIDIA DGX-2
探索 DGX-2 强劲的组件


 

 NVIDIA TESLA V100 32GB,SXM3
 双板卡总计 16 块 GPU,总计 512GB HBM2 内存
每块 GPU 板卡由 8 块 NVIDIA Tesla V100 组成。
 总计 12 NVSWITCH 连接
高速互联,2.4 TB/秒对分带宽。
 8 EDR INFINIBAND/100 GbE 以太网
1600 Gb/秒双向带宽和低延迟。
 PCIE 交换器组件
 2 个 INTEL XEON PLATINUM CPU
 1.5 TB 系统内存
 双 10/25 GbE 以太网
 30 TB NVME SSDS 内部存储




NVLINK 结构
推动多 GPU 处理技术发展


    随着开发人员在人工智能 (AI) 计算等应用领域中越来越依赖并行结构,各行各业中的多 GPU 和多 CPU 系统愈发普及。其中包括采用 PCIe 系统互联技术的 4 GPU 和 8 GPU 系统配置来解决非常复杂的重大难题。然而,在多 GPU 系统层面,PCIe 带宽逐渐成为瓶颈,这就需要更快速和更具扩展性的多处理器互联技术。




更大限度提高系统吞吐量


    NVIDIA®NVLink™ 技术提供更高带宽与更多链路,并可提升多 GPU 和多 GPU/CPU 系统配置的可扩展性,因而可以解决这种互联问题。单个 NVIDIA Tesla®V100 GPU 即可支持多达六条 NVLink 链路,总带宽为 300 GB/秒,这是 PCIe 3 带宽的 10 倍。全新 NVIDIA DGX-1 等服务器充分利用这些技术来提高可扩展性,进而实现超快速的深度学习训练。







□□□□□□□□□□□□□□□□□□□□□□□□□


GPU 至 GPU 通信加速的新水平


Tesla V100 中采用的 NVLink 首先引入 NVIDIA Pascal ™架构,将每个方向的信号发送速率从 20 GB/每秒增加到 25 GB/每秒。

此产品可用于 GPU 至 CPU 或 GPU 至 GPU 的通信,配备 Tesla V100 的 DGX-1V 服务器即是如此。

 

 

说明:Tesla V100 中以 NVLink 连接的 GPU                                     说明:在 DGX-1V 服务器中,混合立体网络拓扑

 至 GPU 和 GPU 至 CPU 通信                                                                     使用 NVLink 连接 8个 Tesla V100 加速器




新的性能水平
NVIDIA NVLink 将采用相同配置的服务器性能提高 31%。此产品可极大提高带宽并减少延迟,即使更大型的深度学习工作负载不断增加,也能实现性能扩展.




 

 

NVSWITCH:完全连接的 NVLINK


    由于 PCIe 带宽日益成为多 GPU 系统级别的瓶颈,深度学习工作负载的快速增长使得对更快速、更可扩展的互连的需求逐渐增加。
    NVLink 实现了很大的进步,可以在单个服务器中支持八个 GPU,并且可提升性能,使之超越 PCIe。但是,要将深度学习性能提升到一个更高水平,将需要使用 GPU 架构,该架构在一台服务器上支持更多的 GPU 以及 GPU 之间的全带宽连接。
    NVIDIA NVSwitch 是首款节点交换架构,可支持单个服务器节点中 16 个全互联的 GPU,并可使全部 8 个 GPU 对分别以 300 GB/s 的惊人速度进行同时通信。这 16 个全互联的 GPU 还可作为单个大型加速器,拥有 0.5 TB 统一显存空间和 2 PetaFLOPS 计算性能。

 

 

 

 

 

 

 


参数
[品牌] 英伟达
[型号] NVIDIA DGX-2

商品标签