微信扫一扫联系
在 AI服务器方面,英伟达在 GTC 大会上发布最新 AI服务器系统 Nvidia DGX H100及 NVLink 架构。其中 DGX H100 将配备 8 个 H100 GPU 模组和 Transformer 引擎,总 GPU 显存高达640GB。每个 H100 GPU配备 18个 NVLINK,确保 GPU之间双向带宽高达 900GB/s。DGX H100服务器可利用 NVLink来提高可扩展性,进而实现超高速的深度学习训练。性能方面,DGX H100系统的 AI 算力高达 32PFlops(每秒 3.2 亿亿次),浮点算力 FP64 480TFlops(每秒 480 万亿次),FP16 1.6PFlops(每秒 1.6千万亿次),FP8 3.2PFlops(每秒 3.2千亿次),分别是上代DGX A100的 3倍、3倍、6倍,并且新增支持网络内计算,性能可达 3.6TFlops。