美光科技今宣布,其 8 層堆疊 24GB HBM3E解決方案已正式量產。美光 HBM3E 解決方案將應用於 輝達 H200 Tensor Core GPU,預計於 2024 年第二季出貨。
|
/news/2024/02/27/1654101420S.jpg |
美光執行副總裁暨事業長 Sumit Sadana 表示:「美光在 HBM3E 此一里程碑上取得了三連勝:領先的上市時間、業界最佳的效能、傑出的能源效率。AI 工作負載亟需記憶體頻寬與容量,美光 HBM3E 和 HBM4 產品藍圖領先業界,針對 AI 應用提供完整的 DRAM 和 NAND 解決方案,支援未來 AI 顯著的成長。」
美光也規劃將在2024 年 3 月推出 12 層堆疊 36GB HBM3E 的樣品,相較於競品,效能可達 1.2TB/s 以上並具備優異的能源效率,能進一步延續其業界領導地位。此外,美光也將成為輝達 GTC AI 大會的贊助商。
HBM3E具備以下優勢:
‧ 卓越效能: 美光 HBM3E 每腳位傳輸速率超過 9.2 Gb/s,記憶體頻寬達 1.2 TB/s 以上,為 AI 加速器、超級電腦與資料中心提供如閃電般快速的資料存取速度。
‧ 優異效率: 與競品相比,美光 HBM3E功耗降低了約 30%,引領業界。為了支援日益增長的 AI 需求和應用,HBM3E 能以最低的功耗提供最大的傳輸量,進而改善資料中心重要的營運成本指標。
‧ 高可擴展性: 美光 HBM3E 目前提供 24 GB 容量,使資料中心可無縫擴展其 AI 應用,無論是用於訓練大型神經網路還是加速推理任務,美光解決方案都能為其提供所需的記憶體頻寬。