类别:新品快报 出处:网络整理 发布于:2023-03-28 11:33:27 | 444 次阅读
Supermicro推出配备NVIDIA HGX及PCIe型H100 8-GPU服务器系统,适用于AI 训练、深度学习、HPC和生成式AI,加速AI和元宇宙时代到来从云端到边缘完善的系统组合,支持NVIDIA HGX H100系统、L40和L4 GPU及OVX 3.0系统Super Micro Computer, Inc. (NASDAQ:SMCI) 为AI/ML、云端、存储和5G/智能边缘应用的全方位IT解决方案供应商,宣布其配备NVIDIA HGX H100 8-GPU系统的全新GPU服务器开始出货。该服务器整合了的NVIDIA L4 Tensor Core GPU至从边缘到数据中心的各种应用优化服务器中。
Supermicro总裁暨执行官梁见后(Charles Liang)表示:"Supermicro提供业界的 GPU系统产品组合,包含 8U、6U、5U、4U、2U 和 1U 外形尺寸的服务器,并支持全系列新NVIDIA H100 GPU的工作站和SuperBlade系统。 通过这款NVIDIA HGX H100 Delta-Next 服务器,客户将获得相较上一代 AI 训练应用9倍的性能提升。 我们的GPU服务器采用创新的气流设计,能全面降低风扇转速、噪音和功耗,进而降低总拥有成本(TCO)。 此外,对于正在寻找符合未来需求的数据中心的客户,我们也为其提供完整的机柜级(rack-scale)液冷选项。 "Supermicro的高性能新型8U GPU服务器现已大量出货。 这款全新 Supermicro 8U 服务器特别针对AI、DL、ML和HPC工作负载进行了优化,搭载能达到高GPU-to-GPU通信的NVIDIA HGX H100 8-GPU,使用高速NVIDIA NVLink? 4.0技术、NVSwitch 互连,以及 NVIDIA Quantum-2 InfiniBand 和 Spectrum-4 以太网,从而大幅突破 AI 的障碍。 此外,Supermicro还提供多种性能优化的GPU服务器配置,包括直连/单根(single-root)/ 双根(dual-root) CPU-to-GPU,另外还有前置或后置 I/O 机型,在标准和OCP DC机柜 配置中使用AC与DC 电源。 Supermicro X13 SuperBlade? 机壳可在一个 8U 机壳内放入 20 个 NVIDIA H100 Tensor Core PCIe GPU 或 40 个 NVIDIA L40 GPU,6U机壳则多可使用10个NVIDIA H100 PCIe GPU或20个NVIDIA L4 TensorCore GPU。 这些新系统为运行NVIDIA AI 平台软件层 NVIDIA AI Enterprise提供理想的优化加速功能。凡本网注明“出处:维库电子市场网”的所有作品,版权均属于维库电子市场网,转载请必须注明维库电子市场网,https://www.dzsc.com,违反者本网将追究相关法律责任。
本网转载并注明自其它出处的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品出处,并自负版权等法律责任。
如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。