类别:业界动态 出处:网络整理 发布于:2023-04-19 10:04:22 | 892 次阅读
TrendForce 的分析师认为,到 2022 年,配备计算 GPU(如 Nvidia 的 A100 或 H100)的 AI 服务器的出货量将同比增长约 9%。但是,他们没有详细说明它们是指单位出货量还是美元出货量。他们现在估计,生成式人工智能的兴起将催化对人工智能服务器的需求,这个市场将在 2023 年增长 15.4%,并在 2027 年之前继续以 12.2% 的复合年增长率增长。
人工智能服务器使用的激增也将增加对所有类型内存的需求,包括商品 DDR5 SDRAM、HBM2e 以及用于计算 GPU 的 HBM3,以及用于高性能和大容量存储设备的 3D NAND 内存。TrendForce 估计,虽然通用服务器包含 500 GB - 600 GB 的商品内存,但人工智能服务器使用 1.2 TB - 1.7 TB。此外,此类机器使用配备 80 GB 或更多 HBM2e/HBM3 内存的计算 GPU。由于每台 AI 机器都配备多个计算 GPU,因此每盒 HBM 的总容量现在为 320 GB – 640 GB,而且随着 AMD 的 Instinct MI300 和 Nvidia H100 NVL 等加速器搭载更多 HBM3 内存,它只会进一步增长。
说到 HBM3 的采用,需要注意的是,根据 TrendForce 的说法,SK 海力士是目前量产这种类型内存的制造商。因此,随着对此类内存的需求增长,它将受益。去年,SK 海力士占据了 HBM 出货量的 50%,其次是三星,占 40%,美光占 10%。TrendForce 称,今年该公司将巩固其地位并控制 HBM 出货量的 53%,而三星和美光的份额将分别下降至 38% 和 9%。预测,从中长期来看,HBM等人工智能存储器的发展将对半导体行业产生重大影响。负面趋势可能是设备成本增加。
编译自anandtech
凡本网注明“出处:维库电子市场网”的所有作品,版权均属于维库电子市场网,转载请必须注明维库电子市场网,https://www.dzsc.com,违反者本网将追究相关法律责任。
本网转载并注明自其它出处的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品出处,并自负版权等法律责任。
如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。