AI 市场快速增长为存储半导体市场得到了复苏

类别:业界动态  出处:网络整理  发布于:2023-08-16 10:08:56 | 370 次阅读

   根据外媒报道, 半导体行业竞相开发下一代内存解决方案,包括高带宽内存 (HBM)、内存处理 (PIM) 和计算快速链路 (CXL),三星电子和 SK 海力士这两个领跑者。特别是,由于生成型人工智能(AI)的发展,AI对HBM3的需求增长速度快于预期,停滞的存储半导体市场得到了复苏。
    8 月 13 日,据业内人士透露,三星电子在国际存储器半导体盛会上,推出了包括 HBM、HBM-PIM、CXL DRAM 和 CXL 处理近存储器(PNM)在内的一系列高性能和大容量存储器解决方案技术。今年的 Memcon 和闪存峰会。
    在第二代和第三代 HBM 上处于领先地位的三星电子,在没有预见到 AI 市场快速增长的情况下,将 HBM??3(第四代)全球量产的芯片制造商的机会让给了 SK 海力士。作为回应,三星电子积极参与下一代 DRAM 的开发和量产竞赛,以重新夺回在 AI 半导体领域的领先地位。
    今年 5 月,三星电子开发出了业界首款支持 CXL 2.0 的 128 GB DRAM,并计划于年内推出。一年前,该公司于去年 5 月开发出了全球首款基于 CXL 1.1 的 DRAM。与限制每个中央处理单元 (CPU) 可用 DRAM 数量的传统方法不同,CXL 将多个接口整合为一个,从而实现每个设备之间的直接通信。这使得将 DRAM 可处理的服务器内存量扩展到数十太字节 (TB) 成为可能。
    2022年10月,SK海力士成功开发出业界将计算功能集成到CXL内存中的计算内存解决方案(CMS)。
    PIM 竞赛也正在升温。目前,内存扮演着存储的角色,中央处理单元(CPU)和图形处理单元(GPU)等系统半导体进行计算,但PIM技术可以在内存中进行数据计算。采用HBM-PIM技术,AI模型生成性能比采用传统HBM的GPU加速器提升3.4倍。2022 年 10 月,AMD 的 GPU MI-100 中采用了三星的 HBM-PIM。
    基于 CXL 的 PNM 通过将具有计算能力的系统半导体放置在内存旁边,减少了数据瓶颈。与传统GPU加速器相比,它的DRAM容量增加了四倍,AI模型的加载速度提高了一倍。虽然仍处于发展的早期阶段,但随着对大容量 AI 模型处理的需求不断扩大,存储器行业预计基于 CXL 的 PNM 技术将得到广泛采用。
    “生成式人工智能的快速发展极大地改变了记忆开发的范式。”一位业内人士表示。“美光在下一代内存技术方面落后了一步,因此三星与 SK 海力士的竞争将持续一段时间。”
关键词: AI 存储

全年征稿 / 资讯合作

稿件以电子文档的形式交稿,欢迎大家砸稿过来哦!

联系邮箱:3342987809@qq.com

版权与免责声明

凡本网注明“出处:维库电子市场网”的所有作品,版权均属于维库电子市场网,转载请必须注明维库电子市场网,https://www.dzsc.com,违反者本网将追究相关法律责任。

本网转载并注明自其它出处的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品出处,并自负版权等法律责任。

如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。

热点排行

广告