风景独特?12层HBM3E量产,16层HBM3E研究,产业链涌动
电子爱好者网报道(文章 / 在早期的报道中,黄晶晶) HBM 产能是否会过剩,行业内有不同的声音,但完全不影响存储芯片厂商对存储芯片的影响。 HBM 产品升级的步伐。
三大厂商 12 层 HBM3E 进展
9 月 26 日,SK 海力士宣布,该公司已开始量产 12H HBM3E 芯片,完成现在的工作 HBM 最大的商品 36GB 容量。该产品堆叠 12 颗 3GB DRAM 实现和现有的芯片 8 层层商品厚度相同,容量增加 50%。启动速度提高到 9.6Gbps,这样就可以搭载四个 HBM 的单个 GPU 运行大型语言模型(LLM)" Llama 3 70B "时间,每秒可以读取 35 次 700 总参数水平为亿次。SK 在今年内,海力士将向客户提供 12 层 HBM3E。
此外,SK 今年年初,海力士公开了一个单一的堆叠速度。 1280 GB/s 的 16 层 48GB HBM3E 概念产品。根据韩媒最新报道,SK 海力士最近经过内部检测,已经成功保证。 16 层 HBM3E 性能特性。
今年 9 月亮,美光宣布推出 12 层堆叠 HBM3E。美光说,随之而来 AI 随着工作负荷的不断发展和扩大,记忆体频宽度和容量对于提高系统效率越来越重要。业内最新的 GPU 高频宽记忆体需要最高效率。(HBM)、记忆容量巨大,功耗效率更高。为了满足这些需求,美光走在记忆创新的最前沿,现在正在为主要行业合作伙伴提供大规模生产 HBM3E 12 一层一层地堆叠记忆体,整个记忆体 AI 审核生态系统。
美光领先的 1 ß(1-beta)记忆技术和先进的封装技术保证了数据流以最有效的方式进出。 GPU。美光的 8 层堆叠和 12 层堆叠 HBM3E 进一步推动记忆体 AI 创新性、功耗低于竞争对手 30%。美光的 8 层堆叠 24GB HBM3E 已与 NVIDIA H200 Tensor Core GPU 共同出货,并可量产。 12 层堆叠 36GB HBM3E 也已上市。
美光提到,企业 HBM3E 12 层堆叠 36GB 和竞争者在一起 8 层堆叠 24GB 与产品相比,不但大大降低了功耗,而且封装中的产品 DRAM 容量增强了 50%。可让拥有 700 大型亿次参数 AI 模型(如 Llama 二是在单个Cpu上运行。避免增加容量 CPU 卸载和 GPU-GPU 通信延迟,所以可以更快地获得洞察。
美光 HBM3E 12 层堆叠 36GB 提供每秒超过 1.2 TB/s 记忆频率宽,Pin 速度超过每秒 9.2 Gb。美光 HBM3E 最大的吞吐量可以用最低的功耗提供。
此外,美光 HBM3E 12 堆叠式记忆体也融合了完全可编程的记忆体 MBIST,该系统的典型流量可以以全规格的速度运行,为加快验证提供了更大的检测覆盖面,缩短了商品的上市日期,提高了系统的可靠性。
在最新的财务报告中,美光表示,已经从第四财季开始。 ( 2024 年 6-8 月 ) 逐步将可量产交付给主要行业合作伙伴。 12 层 HBM3E(36GB),预计将在 2025 年初提升 12 层 HBM3E 产量,并在 2025 每年都会增加产品的出货量。
美光称 HBM 在 2024 年与 2025 年均售罄,而且价格已经确定。直到 2025 年与 2026 一年,将会有更多元化的东西。 HBM 收入状况,因为美光已经凭借行业领先的优势 HBM3E 解决方案已经普遍存在 HBM 顾客业务。
韩国媒体报道,三星电子今年正在进行 2 月亮第一次推出 HBM3E 12H。在 2024 年第 2 三星企业高管在季度财务报告电话会议上表示,已准备好量产。 12 层 HBM3E 芯片,我们将在今年下半年扩大供应,以满足多个客户的需求。
与此同时,三星表示,第五代 8 层 HBM3E 商品已经交付给顾客进行评估,计划 2024 年第 3 每季度开始量产。总而言之,HBM3E 芯片在三星 HBM 预计第三季度占有的份额将超过第三季度。 10%,并且有望在第四季度迅速扩大到第四季度。 60%。
HBM PHY 和控制器,上游 IP 不断创新
芯片 IP 制造商主要提供集成电路设计中的知识产权部件,包括Cpu核、内存控制器、接口协议、图形控制部件等。这些可重用的 IP 核能提高设计效率,降低成本,缩短商品上市日期u200c。现在包括新思想,Rambus、创意电子、联合工软、芯耀辉等厂商都推出了 HBM IP 解决方案。
Synopsys 提供完整的新思科技 DesignWare HBM IP 解决方案,包括控制器,PHY 和验证 IP,为了满足高性能计算,AI 以及图形应用领域的片上系统 ( SoC ) 设计对高带宽和低功耗内存的强烈要求。该 IP 支持 HBM2、HBM2E 和 HBM3 标准所需的功能,已经经过硅验证,可以达到高达 921 GB/s 的高带宽。
Rambus 也积极布局 HBM 记忆市场,去年年底推出的数据传输速率高达 9.6Gb/s 的 HBM3 内存控制器 IP,可以帮助大幅度改善 AI 性能。Rambus 这个内存控制器 IP 产品已经验证,可以支持所有产品 HBM3 商品,还包括最新的 HBM3E 内存设备。
最近,创意电子宣布其宣布。 3 纳米 HBM3E 控制层和实体层 IP 已经获得云服务提供商(CSP)以及多个高效计算(HPC)供应商选择解决方案。这款尖端 ASIC 预计将于 2024 年度投影,并采用最新的投影。 9.2Gbps HBM3E 技术。另外,创意电子也是积极的。 HBM 供应商(如美光)为下一代合作 AI ASIC 开发 HBM4 IP。
创意电子的 HBM3E IP 台积电已经通过 N7 / N6、N5 / N4P、N3E / N3P 先进工艺技术的验证,以及所有主流工艺。 HBM3 厂家商品适配,并在台积电 CoWoS-S 及 CoWoS-R 先进的封装技术已经验证了流片。除了人工智能技术领域,创意也期待着相关的技术领域 HBM IP 可以继续支持各种应用,如高效计算、网络和汽车。
芯耀辉科技旨在为中国大算率产业提供高速接口。 IP 解决方案。芯耀辉成功开发了一整套自研接口 IP,包括了 PCIe、Serdes、DDR、HBM、D2D、USB、MIPI、HDMI、SATA,SD/eMMC 等待最先进的协议标准,并建立一套完整的全栈式 IP 解决方案。
不久前,合见工软新产品发布包括 UniVista HBM3/E IP,该产品包含 HBM3/E 内存控制器,物理层接口(PHY)而验证平台,选择低功耗接口和创新的时钟架构,完成了更高的整体吞吐量和更好的每瓦带宽效率,可以帮助ic设计师实现超小。 PHY 最大的面积同时支持 9.6 Gbps 数据速率,可广泛应用于解决各种前沿应用对数据吞吐量和访问延迟有严格要求的场景需求问题。 AI/ 以数据和计算密集型为代表的机器学习应用 SoC 在其他多种ic设计中,已经实现。 AI/ML、数据中心和 HPC 国内头部等方面 IC 成功部署应用于企业。
总结
HBM3基于集邦咨询报告。e 12hi 是 2024 年底市场关注的焦点。预计于 2025 年英伟达推出 Blackwell Ultra 将采取 8 颗 HBM3e 12hi,GB200 还有升级的可能,加上 B200A 计划,所以,估计 2025 年 12hi 商品在 HBM3e 其中的比例将提高到 40%,并且有机会上升。英伟达是 HBM 市场上最大的客户,在 Blackwell Ultra、B200A 等待商品推出后,英伟达 HBM 市场采购比重将突破 70%。
产能方面,CFM 闪存市场数据显示,估计至 2024 年末三星、SK 达到海力士和美光合计。 30 万片的 HBM 月产能力,其中三星 HBM 增产是最激进的。预计明年全球 HBM 市场规模将向上看 300 亿美金,HBM 将占 DRAM 晶圆产能约 15% 至 20%。
阅读更多热门文章
加关注 星标我们
把我们设为星标,不要错过每一次更新!
喜欢就奖励一个“在看”!
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




