SK 海力士筹备为亚马逊供应 12 层 HBM3E 内存

类别:名企新闻  出处:网络整理  发布于:2025-06-18 09:43:59 | 181 次阅读

    在人工智能浪潮席卷全球的当下,高带宽内存(HBM)市场的竞争愈发激烈。继英伟达之后,亚马逊旗下的 AWS 成为 SK 海力士 HBM 业务的又一关键客户。随着全球范围内对 AI 数据中心的大力投资,AWS 正积极寻求与韩国 SK 集团加强合作,而 SK 海力士也开始准备及时为其供应 12 层 HBM3E 产品。

     AWS 在 AI 基础设施领域的投资堪称大手笔。不久前,AWS 宣布将在未来 5 年投资 200 亿澳元(约 17.6 万亿韩元)扩建其在澳大利亚的数据中心。此前,该公司还决定在北卡罗来纳州投资 100 亿美元、宾夕法尼亚州投资 200 亿美元、台湾投资 50 亿美元。今年,仅对 AI 基础设施的投资就将达到 1000 亿美元,较上一年增长 20%。同时,AWS 计划从今年开始与 SK 集团合作,在蔚山 Mipo 国家工业园区构建一个超大型 AI 数据中心,目标是到 2029 年运营总容量达到 103MW(兆瓦),AWS 为此投资了 40 亿美元。这些大规模的投资预计将极大地推动 HBM 的市场需求。

     在芯片研发方面,AWS 正在设计自己的 “Trainium” 芯片,专门用于机器学习。该芯片将配备 HBM,在去年下半年发布的 “Trainium 2” 中,根据不同版本采用了 HBM3 和 HBM3E 8 层产品,容量为 96GB(千兆字节)。AWS 计划早在今年年底或明年发布下一代芯片 “Trainium 3”,与上一代相比,计算性能提高了一倍,能效提高了约 40%,总内存容量达到 144GB(千兆字节),集成了四个 HBM3E 12 层单元。HBM3E 12 层产品是当今的商用 HBM。

     SK 海力士在 HBM 技术领域一直处于领先地位。去年 9 月,SK 海力士宣布全球率先开始量产 12 层 HBM3E,实现了现有 HBM 产品中的 36GB(千兆字节)容量。该公司将新产品的运行速度提高至现有内存的速度 9.6Gbps,在搭载四个 HBM 的单个 GPU 运行大型语言模型(LLM)‘Llama 3 70B’时,每秒可读取 35 次 700 亿个整体参数。为了实现这一突破,SK 海力士堆叠 12 颗 3GB DRAM 芯片,在保证与现有 8 层产品相同厚度的同时,将容量提升了 50%。公司将单个 DRAM 芯片制造得比以前薄 40%,并采用硅通孔技术(TSV)垂直堆叠,同时解决了堆叠更多变薄芯片时产生的结构性问题,应用先进 MR - MUF 工艺,使放热性能较上一代提升了 10%,并增强了对翘曲问题的控制,确保了产品的稳定性和可靠性。

全年征稿 / 资讯合作

稿件以电子文档的形式交稿,欢迎大家砸稿过来哦!

联系邮箱:3342987809@qq.com

版权与免责声明

凡本网注明“出处:维库电子市场网”的所有作品,版权均属于维库电子市场网,转载请必须注明维库电子市场网,https://www.dzsc.com,违反者本网将追究相关法律责任。

本网转载并注明自其它出处的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品出处,并自负版权等法律责任。

如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。

维库芯视频>>

一键链通西部芯世界——维库电子市场网西部电子展首日直击!

热点排行