您现在的位置:维库电子市场网 > 元器件 > 仪器/仪表 > 科研仪器仪表

NVIDIA英伟达A100人工智能服务器

NVIDIA英伟达A100人工智能服务器
NVIDIA英伟达A100人工智能服务器
  • 型号/规格:

    A100

  • 品牌/商标:

    英伟达NVIDIA

  • 类型:

    服务器

  • 用途:

    人工智能

普通会员
  • 企业名:深圳市创宏佳科技有限公司

    类型:原厂制造商

    电话: 021-16601807362

    手机:16601807362

    联系人:周先生

    QQ: QQ:2284414513

    邮箱:16601807362@163.com

    地址:广东深圳深圳市龙岗区坂田街道金洲嘉丽园2#楼二单元0504

商品信息


NVIDIA A100 TENSOR CORE GPU 在各种规模上实现出色的加速

适用于各种工作负载的强大计算平台

NVIDIA A100 Tensor Core GPU 可在各个规模下为 AI、数据分析和高性能计算( HPC) 应用提供出色的加速性能,为quan球的 高性能弹性数据中心提供强劲助力。作为 NVIDIA 数据中心平台的引擎,与前一代 NVIDIA Volta? 相比,A100 可使性能提升高达 20 倍。A100 可高效扩展,也可借助多实例 GPU MIG) 技术划分 为 7 个独立的 GPU 实例,从而提供统一的平台,助力弹性数据中心根据不断变化的工作负载需求动态进行调整。

NVIDIA A100 Tensor Core 技术支持广泛的数学精度,可针对每个工作负载提供单个加速器。zui新一代 A100 80GB GPU 显存 加倍,提供 2TB/s 的quan球超快显存带宽,可加速处理超大型模型和海量数据集。

A100 是完整 NVIDIA 数据中心解决方案的一部分,该解决方案由硬件、网络、软件、库以及 NGC? 目录中经优化的 AI 模型和 应用等叠加而成。作为适用于数据中心且功能强大的端到端 AI HPC 平台,A100 可助力研究人员获得真实的结果,并能将解决方案大规模部署到生产环境中。


NVIDIA英伟达A100人工智能服务器产品规格

项目

标准配置

扩展配置

1

准系统

双路4U机架式

2

处理器

英特尔 Xeon ? Gold 6330 处理器
28
/基频2GHz/3.1GHz/42MB缓存

英特尔 Xeon? Platinum 8380 处理器
40
/基频2.3GHz/3.4GHz/60MB缓存

3

内存

DDR4/RDIMM/3200MHz/64GB,总容量256GB

内存容量4TB

4

芯片组

Intel? C621A

5

GPU

8A100 80GB PCIe显卡

8张双宽或16张单宽PCIe NVIDIA GPU

6

网络通信

以太网卡,210G电口

7

InfiniBandIB)网卡,2200G QSFP56

8

硬盘

系统盘,M.2 SATA SSD,容量1TB

前面板支持242.5123.5 SAS/SATA硬盘
主板支持2M.2 SATA SSD

9

数据盘,4TB*4/SATA,总容量16TB

10

电源

单模组2000W2%2B2冗余配置

单模组3KW,总计12KW

9

外形尺寸

宽度480mm,高度180mm,深度830mm

10

工作温度

5~35

11

重量

80kg


NVIDIA A100 TENSOR CORE GPU 规格 (SXM4 PCIE 外形规格)

 

A100 80GB PCIe

A100 80GB SXM

FP64

9.7 TFLOPS

FP64 Tensor Core

19.5 TFLOPS

FP32

19.5 TFLOPS

Tensor Float 32 TF32

156 TFLOPS | 312 TFLOPS*

BFLOAT16 Tensor Core

312 TFLOPS | 624 TFLOPS*

FP16 Tensor Core

312 TFLOPS | 624 TFLOPS*

INT8 Tensor Core

624 TOPS| 1248 TOPS*

GPU 显存

80GB HBM2e

80GB HBM2e

GPU 显存带宽

1935GB/s

2039GB/s

zui大热设计功耗 (TDP

300

400 ***

多实例 GPU

zui多 7 MIG 每个 10GB

zui多 7 MIG 每个 10GB

外形规格

PCIe 双插槽风冷式或单插槽液冷式

SXM

互连技术

搭载 2 GPU NVIDIA? NVLink? 桥接器:600GB/s**

PCIe 4.0 64GB/s

NVLink 600GB/s

PCIe 4.0 64GB/s

服务器选项

搭载 1 8 GPU 的合作伙伴ren证系统和 NVIDIA ren证系统( NVIDIA-Certified Systems?)

搭载 4 个、8 个或 16 GPU NVIDIA HGX? A100 合作伙伴ren证系统和 NVIDIA ren证系统

搭载 8 GPU NVIDIA DGX? A100

* 采用稀疏技术

** SXM4 GPU 通过 HGX A100 服务器主板连接;PCIe GPU 通过 NVLink 桥接器可桥接多达两个 GPU

*** 400 TDP(适用于标准配置)。HGX A100-80 GB 自定义散热解决方案( CTS SKU 可 支持高达 500 瓦的 TDP

跨工作负载的卓越性能

针对大型模型提供高达 3 倍的 AI 训练速度;

相较于 CPU 提供高达 249 倍的 AI 推理性能;

相较于 A100 40GB 提供高达 1.25 倍的 AI 推理性能;

HPC 应用提供高达 1.8 倍的性能;

四年来 HPC 性能提升 11 倍;

相较于 A100 40GB,在大数据分析基准测试中速度提升 2 倍;

突破性的创新

NVIDIA AMPERE 架构:无论是使用 MIG A100 GPU 分割为较小的实例,还是使用 NVLink 连接多个 GPU 来加速 大规模工作负载,A100 均可轻松满足不同规模的加速需求,从小型作业到大型多节点工作负载无一例外。A100 功能全面,这意味着 IT 经理可以全天候地充分利用数据中心内的每个 GPU

第三代 TENSOR CORE 技术:NVIDIA A100 的深度学习 运算性能可达 312 teraFLOPS TFLOPS)。其深度学习训练的 Tensor 每秒浮点运算次数( FLOPS) 和推理 的 Tensor 每秒万亿次运算次数( TOPS) 皆为 NVIDIA Volta? GPU 20 倍。

新一代 NVLINKA100 中采用的 NVIDIA NVLink 可提供两倍于上一代的吞吐量。与 NVIDIA NVSwitch? 结合使用时,此技术可将多达 16 A100 GPU 互连,并将速度提升至 600GB/s,从而在单个服务器上实现出色的应用性能。NVLink 技术可应用在 A100 中:SXM GPU 通过 HGX A100 服务器主板连接,PCIe GPU 通过 NVLink 桥接器可桥接多达两块 GPU

多实例 GPU MIG) 技术:一个 A100 GPU zui多可划分为 7 GPU 实例,这些实例在硬件级别完全独立,并独自拥有高 带宽显存、缓存和计算he心。借助 MIG, 开发者可为其所有应用实现惊人加速,IT 管理员也可为每个作业提供符合其规模的 GPU 加速,进而优化 GPU 利用率,并让每个用户和 应用都能使用 GPU 实例。

高带宽显存( HBM2E):凭借 80GB 的高带宽显存(HBM2e),A100 提供超过 2TB/s 的超快 GPU 显存带宽, 并将动态随机存取存储器( DRAM) 的利用效率 提高至 95%A100 提供的显存带宽是上一代 产品的 1.7 倍。

结构化稀疏:AI 网络拥有数百万至数十亿个 参数。实现准确预测并非要使用所有参数,而且我们还可将某些参数转换为零,以在无损准确性的前提下使 模型变得稀疏A100 中的 Tensor Core 可为稀疏模型提供高达 2 倍的性能提升。稀疏功能不仅更容易使 AI 推理受益,同时还能提升 模型的训练性能。

NVIDIA  A100 Tensor Core GPU NVIDIA 数据中心平台的旗舰产品,可用于深度学习、高性能计算 (HPC) 和数据分析。该平台可为 2000 余款应用和各大深度学习框架提供加速。A100 适用于桌面、服务器以及云服务,不仅能显著提升性能,更可以节约成本。


联系方式

企业名:深圳市创宏佳科技有限公司

类型:原厂制造商

电话: 021-16601807362

手机:16601807362

联系人:周先生

QQ: QQ:2284414513

邮箱:16601807362@163.com

地址:广东深圳深圳市龙岗区坂田街道金洲嘉丽园2#楼二单元0504

提示:您在维库电子市场网上采购商品属于商业贸易行为。以上所展示的信息由卖家自行提供,内容的真实性、准确性和合法性由发布卖家负责,请意识到互联网交易中的风险是客观存在的。请广大采购商认准带有维库电子市场网认证的供应商进行采购!

电子元器件产品索引: A B C D E F G H I J K L M N O P Q R S T U V W X Y Z 0 1 2 3 4 5 6 7 8 9