美光、SK海力士今年HBM已售罄

网络与存储 时间:2024-02-27来源:半导体产业纵横

随着生成式人工智能(AI)市场的爆发,也带动了 AI 芯片需求的暴涨。AI 芯片龙头英伟达业绩更是持续飙升,最新公布的第四财季财报显示,营收同比暴涨 265% 至 221 亿美元,净利润同比暴涨 769% 至 122.85 亿美元,持续突破历史记录,推动英伟达市值突破 2 万亿美元。

随着 AI 芯片需求持续大涨,作为目前 AI 芯片当中的极为关键的器件,HBM(高带宽内存)也是持续供不应求,存储大厂积极瞄准 HBM 扩产。

其中,三星电子从 2023 年四季度开始扩大 HBM3 的供应。此前 2023 年四季度三星内部消息显示,已经向客户提供了下一代 HBM3E 的 8 层堆叠样品,并计划在今年上半年开始量产。到下半年,其占比预计将达到 90% 左右。负责三星美国半导体业务的执行副总裁 Han Jin-man 则在今年 CES 2024 上表示,三星今年的 HBM 芯片产量将比去年提高 2.5 倍,明年还将继续提高 2 倍。

三星官方还透露,公司计划在今年第四季度之前,将 HBM 的最高产量提高到每月 15 万至 17 万件,以此来争夺 2024 年的 HBM 市场。此前三星电子斥资 105 亿韩元收购了三星显示位于韩国天安市的工厂和设备,以扩大 HBM 产能,同时还计划投资 7000 亿至 1 万亿韩元新建封装线。

去年 12 月,美光 CEO Sanjay Mehrotra 对外透露,得益于生成式 AI 的火爆,推动了云端高性能 AI 芯片对于高带宽内存的旺盛需求,美光 2024 年的 HBM 产能预计已全部售罄。

美光指出,专为 AI、超级计算机设计的 HBM3E 预计 2024 年初量产,有望于 2024 会计年度创造数亿美元的营收。Mehrotra 对分析师表示,「2024 年 1~12 月,美光 HBM 预估全数售罄」。

美光也相信,终端能执行 AI 任务的 PC、移动设备,对內存芯片来说蕴藏极大潜质。

Mehrotra 预测,PC 出货量在连两年出现双位数跌幅后,有望 2024 年成长 1%~5%。他相信,PC 制造商 2024 下半年扩产 AI PC,这些 PC 每台需要额外 4~8Gb DRAM,固态硬盘(SSD)需求也会上扬。

Mehrotra 还表示,长期而言,许多热门生成式 AI 程序的主战场会是智能手机,美光的产品组合有望抓住这次內存及储存市场潜藏的机会。美光计划增加 2024 会计年度的资本支出,但高层承诺会「极度节制」(extremely disciplined)。

继此前美光宣布今年 HBM 产能全部售罄之后,最新的消息显示,SK 海力士今年的 HBM 产能也已经全部售罄。

虽然整个 2023 年全球半导体市场遭遇了「寒流」,特别是存储芯片市场更是下滑严重。但是,受益于生成式 AI 带来的需求,面向 AI 应用的 DRAM 依然保持了快速的增长。

SK 海力士在 2023 年度财报当中就曾表示,2023 年在 DRAM 方面,公司以引领市场的技术实力积极应对了客户需求,公司主力产品 DDR5 DRAM 和 HBM3 的营收较 2022 年分别成长 4 倍和 5 倍以上。

近日,SK 海力士副总裁 Kim Ki-tae(金基泰)在一篇博文中表示,今年公司的 HBM 已经售罄,已开始为 2025 年做准备。虽然外部不稳定因素依然存在,但今年内存半导体行业已开始呈现上升趋势。全球大型科技客户对产品的需求正在复苏,并且随着人工智能使用领域的扩大,包括配备自己的人工智能的设备,如个人电脑和智能手机,对 DDR5、LPDDR5T 以及 HBM3E 等产品的需求预计会增加。

据悉,英伟达和 AMD 的下一代人工智能 GPU 预计将主要搭载 HBM3 内存。例如,H100 是第一款支持 PCIe 5.0 标准的 GPU,也是第一款采用 HBM3 的 GPU,最多支持六颗 HBM3,带宽为 3TB/s,是 A100 采用 HBM2E 的 1.5 倍,默认显存容量为 80GB。

2023 年 11 月英伟达发布了新一代 AI GPU 芯片 H200,以及搭载这款 GPU 的 AI 服务器平台 HGX H200 等产品。这款 GPU 是 H100 的升级款,依旧采用 Hopper 架构、台积电 4nm 制程工艺,根据英伟达官网,H200 的 GPU 芯片没有升级,核心数、频率没有变化,主要的升级便是首次搭载 HBM3e 显存,并且容量从 80GB 提升至 141GB。

得益于新升级的 HBM3e 芯片,H200 的显存带宽可达 4.8TB/s,比 H100 的 3.35TB/s 提升了 43%。不过这远没有达到 HBM3e 的上限,海外分析人士称英伟达有意降低 HBM3e 的速度,以追求稳定。如果与传统 x86 服务器相比,H200 的内存性能最高可达 110 倍。

AMD 的 MI300 也搭配 HBM3,其中,MI300A 容量与前一代相同为 128GB,更高端 MI300X 则达 192GB,提升了 50%。AMD 称,MI300X 提供的 HBM 密度最高是英伟达 AI 芯片 H100 的 2.4 倍,其 HBM 带宽最高是 H100 的 1.6 倍。这意味着,AMD 的芯片可以运行比英伟达芯片更大的模型。

在 HBM 盛行的当下,没有一家存储厂商能够忍住不分一杯羹。

关键词: HBM

加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW

或用微信扫描左侧二维码

相关文章

查看电脑版