4月19日消息:根據 TrendForce 集邦咨詢研究顯示,AI 服務器出貨動能強勁,帶動 HBM 需求提升。預計到 2022 年,三大原廠 HBM 市占率分別為 SK 海力士(SK hynix)50%、三星(Samsung)約 40%、美光(Micron)約 10%。
HBM 全稱 high bandwidth memory,新型 CPU / GPU 內存芯片,是指將多個 DDR 芯片堆疊在一起后和 GPU 封裝在一起,實現大容量,高位寬的 DDR 組合陣列。
高階深度學習 AI GPU 的規格也刺激了 HBM 產品更迭,三大原廠也已規劃相對應規格 HBM3 的量產。今年將有更多客戶導入 HBM3 的預期下,SK 海力士作為目前唯一量產新世代 HBM3 產品的供應商,其整體 HBM 市占率有望藉此提升至 53%。
預計到 2023 年,AI 服務器出貨量年增率有望達 15.4%,刺激了 Server DRAM、SSD 與 HBM 需求同步上升。AI 服務器多增加 GPGPU 的使用,因此以 NVIDIA A100 80GB 配置 4 或 8 張計算,HBM 用量約為 320~640GB。未來在 AI 模型逐漸復雜化的趨勢下,將刺激更多的存儲器用量,并同步帶動 Server DRAM、SSD 以及 HBM 的需求成長。