TrendForce对HBM市场的研究显示,NVIDIA计划实现HBM供应商多元化,以实现更稳健、更高效的供应链管理。三星的 HBM3 (24GB) 预计将于今年 12 月完成 NVIDIA 的验证。HBM3e 的进展情况如下表所示,美光于 7 月底向 NVIDIA 提供了 8hi (24GB) 样品,8 月中旬向 SK 海力士提供,10 月初向三星提供。
鉴于 HBM 验证过程的复杂性(预计需要两个季度),TrendForce 预计一些制造商可能会在 2023 年底之前获悉 HBM3e 的初步结果。不过,普遍预计主要制造商将在 2024 年第一季度之前获得明确的结果。值得注意的是,终评估仍在进行中,结果将影响 NVIDIA 2024 年的采购决策。
![](https://file3.dzsc.com/news/23/11/30/100522476.jpg)
NVIDIA继续主导高端芯片市场,扩大其先进AI芯片阵容
2024 年即将到来,多家 AI 芯片供应商纷纷推出产品。NVIDIA 目前的 2023 年高端 AI 系列采用了 HBM,包括 A100/A800 和 H100/H800 等型号。2024 年,NVIDIA 计划进一步完善其产品组合。新增加的产品包括使用 6 个 HBM3e 芯片的 H200 和使用 8 个 HBM3e 芯片的 B100。NVIDIA 还将集成自家基于 Arm 的 CPU 和 GPU,推出 GH200 和 GB200,通过更、更强大的 AI 解决方案增强其产品阵容。
相比之下,AMD 2024 年的重点是采用 HBM3 的 MI300 系列,下一代 MI350 过渡到 HBM3e。该公司预计将于 2H24 开始对 MI350 进行 HBM 验证,预计 25 年 1 季度产品将大幅增加。
Intel Habana 在 2H22 推出了 Gaudi 2,它采用了 6 个 HBM2e 堆栈。即将推出的 Gaudi 3(预计于 2024 年中期推出)预计将继续使用 HBM2e,但将升级至 8 个堆栈。TrendForce认为,NVIDIA凭借其的HBM规格、产品准备和战略时间表,将在GPU领域保持领先地位,进而在竞争激烈的AI芯片市场保持领先地位。
HBM4 可能转向商品 DRAM 之外的定制
HBM4 预计将于 2026 年推出,具有针对 NVIDIA 和其他 CSP 未来产品量身定制的增强规格和性能。在更高速度的推动下,HBM4 将标志着其部逻辑芯片(基础芯片)首次使用 12 纳米工艺晶圆,由代工厂提供。这一进步标志着代工厂和存储器供应商之间针对每种 HBM 产品的合作努力,反映了高速存储器技术不断发展的前景。
随着更高计算性能的推动,HBM4 将从当前的 12 层 (12hi) 堆栈扩展到 16 层 (16hi) 堆栈,从而刺激对新混合键合技术的需求。HBM4 12hi 产品将于 2026 年推出,16hi 型号将于 2027 年推出。
,TrendForce 指出 HBM4 市场的定制需求发生了重大转变。买家正在启动定制规范,超越与 SoC 相邻的传统布局,并探索将 HBM?? 直接堆叠在 SoC 顶部等选项。虽然这些可能性仍在评估中,但 TrendForce 预计将针对 HBM 行业的未来采取更加量身定制的方法。
与商品 DRAM 的标准化方法相反,这种向定制化的转变预计将带来独特的设计和定价策略,标志着对传统框架的背离,并预示着 HBM 技术化生产时代的到来。