美光科技今宣布,其 8 层堆叠 24GB HBM3E解决方案已正式量产。美光 HBM3E 解决方案将应用於 辉达 H200 Tensor Core GPU,预计於 2024 年第二季出货。
|
/news/2024/02/27/1654101420S.jpg |
美光执行??总裁暨事业长 Sumit Sadana 表示:「美光在 HBM3E 此一里程碑上取得了三连胜:领先的上市时间、业界最隹的效能、杰出的能源效率。AI 工作负载亟需记忆体频宽与容量,美光 HBM3E 和 HBM4 产品蓝图领先业界,针对 AI 应用提供完整的 DRAM 和 NAND 解决方案,支援未来 AI 显着的成长。」
美光也规划将在2024 年 3 月推出 12 层堆叠 36GB HBM3E 的样品,相较於竞品,效能可达 1.2TB/s 以上并具备优异的能源效率,能进一步延续其业界领导地位。此外,美光也将成为辉达 GTC AI 大会的赞助商。
HBM3E具备以下优势:
· 卓越效能: 美光 HBM3E 每脚位传输速率超过 9.2 Gb/s,记忆体频宽达 1.2 TB/s 以上,为 AI 加速器、超级电脑与资料中心提供如闪电般快速的资料存取速度。
· 优异效率: 与竞品相比,美光 HBM3E功耗降低了约 30%,引领业界。为了支援日益增长的 AI 需求和应用,HBM3E 能以最低的功耗提供最大的传输量,进而改善资料中心重要的营运成本指标。
· 高可扩展性: 美光 HBM3E 目前提供 24 GB 容量,使资料中心可无缝扩展其 AI 应用,无论是用於训练大型神经网路还是加速推理任务,美光解决方案都能为其提供所需的记忆体频宽。