2/27/2024,光纖在線訊,美光科技今日宣布開始批量生產 HBM3E 高帶寬內存,其 24GB 8H HBM3E 產品將供貨給英偉達,并將應用于 NVIDIA H200 Tensor Core GPU(第二季度開始發(fā)貨)。
據官方資料獲悉, 美光 HBM3e 內存基于 1β 工藝,采用 TSV 封裝、2.5D / 3D 堆疊,可提供 1.2 TB / s 及更高的性能。
美光表示,與競爭對手的產品相比,其 HBM3E 解決方案有著以下三方面的優(yōu)勢:
-卓越性能:美光 HBM3E 擁有超過 9.2 Gb / s 的針腳速率、超過 1.2 TB / s 的內存帶寬,可滿足人工智能加速器、超級計算機和數據中心的苛刻需求。
-出色能效:與競品相比,美光 HBM3E 功耗降低了約 30%,在提供最大吞吐量的前提下將功耗降至最低,有效改善數據中心運營支出指標。
-無縫擴展: 美光 HBM3E 目前可提供 24GB 容量,可幫助數據中心輕松擴展其 AI 應用。無論是訓練大規(guī)模神經網絡還是加速推理任務都能提供必要的內存帶寬。
美光科技執(zhí)行副總裁兼首席商務官 Sumit Sadana 表示:“美光科技憑借這一 HBM3E 里程碑實現了三連勝:上市時間領先、一流的行業(yè)性能以及差異化的能效概況!薄叭斯ぶ悄芄ぷ髫撦d嚴重依賴內存帶寬和容量,美光處于有利位置,可以通過我們業(yè)界領先的 HBM3E 和 HBM4 路線圖以及我們用于人工智能應用的完整 DRAM 和 NAND 解決方案組合來支持未來人工智能的顯著增長!。
HBM 是美光科技最賺錢的產品之一,部分原因在于其構造所涉及的技術復雜性。該公司此前曾表示,預計 2024 財年 HBM 收入將達到“數億”美元,并在 2025 年繼續(xù)增長。
美光還宣布將會在 3 月 18 日召開的全球人工智能大會上分享更多有關其行業(yè)領先的人工智能內存產品組合和路線圖的信息。
【來源:IT之家】