找回密码
 立即注册
如果您希望可以时常见面,欢迎标星收藏哦~
来源:内容来自综合,谢谢。
本周,美光 发布了其 HBM4 和 HBM4E 计划的最新进展 。下一代 HBM4 内存具有 2048 位接口,有望在 2026 年实现量产,HBM4E 将在随后几年推出。除了提供比 HBM4 更高的数据传输速率外,HBM4E 还将引入定制其基础芯片的选项,标志着该行业的范式转变。
毫无疑问,HBM4 凭借其 2048 位内存接口令人印象深刻。然而,HBM4E 将更加令人印象深刻,使美光能够为某些客户提供定制的基础芯片,从而提供具有潜在附加功能的更优化的解决方案。定制逻辑芯片将由台积电使用高级节点制造,允许它们封装更多缓存和逻辑以增加性能和功能。
美光总裁兼首席执行官 Sanjay Mehrotra 表示:“HBM4E 将为内存业务带来革命性转变,它采用了台积电先进的逻辑代工制造工艺,为特定客户定制逻辑基片。我们预计这种定制能力将推动美光财务业绩的提高。”
目前,我们只能猜测美光计划如何定制其 HBM4E 基础逻辑芯片。不过,可能性列表很长,包括基本处理功能,例如增强型缓存、针对特定应用(AI、HPC、网络等)定制的自定义接口协议、内存到内存传输功能、可变接口宽度、高级电压缩放和电源门控以及自定义 ECC 和/或安全算法。请记住,这只是推测。目前尚不清楚实际的 JEDEC 标准是否支持此类定制。
美光表示,HBM4E 产品的开发工作正在与多家客户一起顺利进行,因此我们可以预期不同的客户将采用具有不同配置的基础芯片。这标志着朝着定制内存解决方案迈出了一步,这些解决方案适用于带宽需求大的 AI、HPC、网络和其他应用。定制的 HBM4E 解决方案与 Marvell 本月早些时候推出的定制 HBM (cHBM4) 解决方案相比如何,还有待观察。
美光的 HBM4 将使用该公司基于成熟的 1β(第五代 10nm 级工艺技术)制造的 DRAM,放置在具有 2048 位宽接口和约 6.4 GT/s 数据传输速率的基片之上,这将提供每堆栈 1.64 TB/s 的峰值理论带宽。美光计划在 2026 年大批量生产 HBM4,这与 Nvidia 的 Vera Rubin 和 AMD 的 Instinct MI400 系列 GPU的推出相吻合,这些 GPU 适用于 AI 和 HPC 应用。有趣的是,据传 三星和 SK Hynix 都将  在其 HBM4 产品中使用第六代 10nm 级制造技术。
美光本周还透露,用于 Nvidia Blackwell 处理器的8层HBM3E堆栈已全面出货。该公司的12层 HBM3E 堆栈正在接受其主要客户的测试,据报道他们对结果感到满意。
Mehrotra 表示:“我们不断收到来自主要客户对美光 HBM3E 12-Hi 堆栈的积极反馈,该堆栈具有同类最佳的功耗——比竞争对手的 HBM3E 8-Hi 低 20%,即使美光产品的内存容量提高了 50% 并且具有业界领先的性能。”
预计 AMD 的Instinct MI325X 和 MI355X 加速器以及 Nvidia 的 Blackwell B300 系列计算 GPU将采用 12-Hi HBM3E 堆栈 来处理 AI 和 HPC 工作负载。
美光HBM,怎么看?
以下是内存带宽和一定容量的容量在GenAI革命中的价值。
想象一下,你有一堆DDR5内存芯片,每GB的成本为70美元,可以创建一个256GB的内存条,将它们水平放置在DIMM内存条上。将它们的时钟频率提高到4.8 GHz,那么这个记忆棒的价格大约为18,000美元。而且很少有服务器客户会购买它,因为它太贵了。采用相同的DDR5内存,但芯片容量稍小,垂直堆叠成八堆HBM3E,你可以尽快销售相同的256GB容量,每单位容量可能溢价60%,但利润可能稍小,因为制造HBM很困难,因为它有超过一个数量级的带宽。
如果你从事内存业务,面对其疯狂的繁荣-萧条周期,你会不会试图找出如何制造HBM,并尽可能多地销售它?
这正是美光科技的计划,美光科技是HBM内存市场的后来者,与先驱SK海力士和三星并驾齐驱,但它正在利用其大量的工程人才,与英伟达以及其他所有希望拥有HBM来提高加速器性能的人工智能芯片制造商竞争。
虽然现在还处于早期阶段,但有迹象表明,当我们回顾几年后的情况时,美光进入HBM市场将成为该公司的一个分水岭事件。
美光本周公布了其2025财年第一季度的财务业绩,不出所料,华尔街对此感到恐慌,因为个人电脑和智能手机业务的复苏并没有像预期的那样成功。在我们看来,很多人都在喝人工智能的饮料,我们都希望人工智能嵌入我们的个人电脑和智能手机中,但到目前为止,这并没有催生一个大规模的升级周期,也没有迹象表明有人愿意为这类产品支付人工智能溢价。(我们很快就会得到一部新的智能手机,因为我们的iPhone X看起来有点简陋,而且电池比一个正在长牙的蹒跚学步的孩子还要暴躁——不是因为我们想要人工智能。)
美光公司HBM存储器的增长速度非常快,在与英特尔合作制造3D XPoint闪存式ReRAM存储器惨败之后,这令人耳目一新。美光在HBM2E代上大显身手,跳过了HBM3,直接进入了HBM3E,在2024年第三季度销售额超过1亿美元。当时,也就是6月底,美光公司总裁兼首席执行官Sanjay Mehrotra为2024财年和2025财年打下了基础。
Mehrotra告诉华尔街:“我们预计在2024财年从HBM获得数亿美元的收入,在2025财年从HBM获得数十亿美元的收入。”。“我们预计在2025年某个时候实现与我们的整体DRAM市场份额相称的HBM市场份额。”
美光公司的DRAM市场份额在20%到25%之间,这取决于你问谁以及你想如何划分DRAM空间。两个季度前,美光将2025年的HBM TAM定为250亿美元左右,在本周的电话会议上,Mehrotra根据美光从追逐人工智能机会的计算引擎制造商那里听到的消息,将TAM提高到超过300亿美元。(也有一些人对HBM内存用于HPC工作负载持乐观态度,但这只是数据中的噪音。)你可以计算一下,在2025财年,美光公司超过300亿美元的销售额中,超过20%将用于HBM内存销售,销售额将超过60亿美元。这对于一个在2024年第二季度收入只有1/100的产品线来说,已经相当不错了。但正如我们将要解释的那样,数学并不是那么简单。
Mehrotra对它在2024财年销售了多少HBM内存持谨慎态度,但我们最好的猜测是大约5.3亿美元。我们认为2024年第四季度的收入约为3.5亿美元,2025年第一季度的收入约为7.5亿美元,其中英伟达“Hopper”H200 GPU加速器中使用的八层HBM3E内存堆栈推动了大部分收入。美光公司的八倍高HBM3E也被用于英伟达的“Blackwell”B200 GPU,美光公司刚刚开始向其第二个HBM客户“大批量发货”,并将于2025年第一季度开始向第三个大客户发货。
每个人都对美光公司的 12 层 HBM3E 堆栈感到兴奋,该公司表示,即使它的容量提高了50%,它的功耗也比竞争对手的8层堆栈HBM3E低20%。HBM的产能在2024财年和2025财年已经售罄,因此美光非常清楚,如果它能继续生产HBM堆栈,它的收入来源将是什么。
Mehrotra对 HBM 增长趋势进行了一些澄清,帮助我们建立更好的模型,他说美光科技预计“在 2025 年下半年的某个时候,实现与我们的整体 DRAM 市场份额相称的 HBM 市场份额。”
假设HBM销售额在2025财年持续增长,市场份额从第一季度的10%左右上升到第四季度的20%,我们认为美光科技本财年将售出至少47亿美元的HBM内存,而且我们认为这将推动超过100万个加速器。这是HBM产品线收入增长8.8倍的一个因素。根据我们的模型,其他DRAM在2024财年为美光带来了约193亿美元的销售额,我们没有理由相信DRAM在PC和智能手机市场低迷的情况下会做得更好。当然,在人工智能服务器中使用的LPDDR5内存和其他DDR5内存会有所帮助,但假设这一切都是平衡的。在我们的模型中,HBM将在2025财年为DRAM业务增加47亿美元,即约25%的增量。
最终,我们认为个人电脑、智能手机和通用服务器将复苏,美光可能会有更多的DRAM上涨——仅仅是因为旧的东西需要被替换,而不是因为这些机器上撒满了人工智能的仙粉。
美光科技另一个有趣的小道消息是,它在2025年第一季度拥有超过10%的客户,而且由于美国证券交易委员会的规定,它必须告诉我们它有多少这样的客户,以及他们带来了多少收入。在这种情况下,一家公司占美光总销售额的13%,约为11.3亿美元。我们确信这是英伟达,其中7.5亿美元用于HBM3E内存,其余用于与“Grace”G100处理器一起使用的LPDDR5,以及DGX系统中使用的DDR5内存和NAND闪存驱动器。
本季度,计算和网络业务部门(该部门是美光最接近数据中心代理的部门)销售额为43.6亿美元,同比增长2.5倍,环比增长45.6%。该部门在去年同期录得3.97亿美元的营业亏损,而这一次则录得17.1亿美元的收益,这确实是一个非常好的转变。
从上图可以看出,美光和其他芯片供应商一样,在服务器衰退和PC和智能手机销量下滑的情况下,美光也受到了影响,其营业收入也受到了对HBM技术的巨额投资的影响,这些投资现在将开始结出硕果。对于美光的中线和底线来说,2023财年和2024财年上半年并不是很有趣,但看起来美光在今年早些时候已经转了个弯,并且正在全力以赴。
事实上,鉴于2025财年所有HBM芯片都已售出,美光对今年可能会如何发展有了一个很好的想法,而且还有四分之三的时间。现在一切都取决于执行。
https://www.nextplatform.com/2024/12/19/micron-is-fashionably-late-to-the-hbm-party-but-not-too-late/
https://www.tomshardware.com/pc-components/gpus/microns-hbm4e-heralds-a-new-era-of-customized-memory-for-ai-gpus-and-beyond
半导体精品公众号推荐
专注半导体领域更多原创内容
关注全球半导体产业动向与趋势
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3983期内容,欢迎关注。
『半导体第一垂直媒体』
实时 专业 原创 深度
公众号ID:icbank
喜欢我们的内容就点“在看”分享给小伙伴哦
分享至 : QQ空间
收藏

21 个回复

倒序浏览
感谢大家的积极讨论,让我感受到了知识的力量。
回复 使用道具 举报
楼上的观点很独特,让我有了新的认识。
回复 使用道具 举报
这个观点我之前没有想到过,感谢楼主提供了新的视角。
回复 使用道具 举报
楼主分享的资源真是太有用了,感谢分享。
回复 使用道具 举报
非常感谢你的建议,我会认真考虑的。
回复 使用道具 举报
期待能够在这个论坛里学到更多实用的知识和技能。
回复 使用道具 举报
看了大家的讨论,感觉大家都很热爱学习,真是太好了。
回复 使用道具 举报
这个问题很有趣,期待大家的讨论和解答。
回复 使用道具 举报
感谢大家的支持和鼓励,让我有勇气分享自己的想法和见解。
回复 使用道具 举报
123下一页
您需要登录后才可以回帖 登录 | 立即注册