11 月 28 日消息,根據(jù)集邦咨詢公布的最新 HBM 市場(chǎng)研究報(bào)告,英偉達(dá)為了健全現(xiàn)有供應(yīng)鏈,計(jì)劃引入更多的 HBM 供應(yīng)商。
根據(jù)該機(jī)構(gòu)報(bào)告中分享的時(shí)間軸報(bào)告,英偉達(dá) 7 月底已經(jīng)收到了美光的 8hi(24GB)樣品;8 月收到了 SK 海力士的 8hi(24GB)樣品;今年 10 月初收到了三星的 8hi(24GB)樣品。
由于 HBM 驗(yàn)證過(guò)程繁瑣,預(yù)計(jì)耗時(shí)兩個(gè)季度,因此,TrendForce 集邦咨詢預(yù)期,英偉達(dá)最快在 2023 年底,完成部分廠商的 HBM3e 驗(yàn)證,而三大原廠預(yù)計(jì)于 2024 年第一季完成所有驗(yàn)證。
值得注意的是,各原廠的 HBM3e 驗(yàn)證結(jié)果,也將決定最終英偉達(dá) 2024 年在 HBM 供應(yīng)商的采購(gòu)權(quán)重分配,然目前驗(yàn)證皆尚未完成,因此 2024 年 HBM 整體采購(gòu)量仍有待觀察。
展望 2024 年,觀察目前各 AI 芯片供應(yīng)商的項(xiàng)目進(jìn)度,NVIDIA 2023 年的高端 AI 芯片(采用 HBM)的既有產(chǎn)品為 A100 / A800 以及 H100 / H800;2024 年則將把產(chǎn)品組合(Product Portfolio)更細(xì)致化地分類。
除了原上述型號(hào)外,還將再推出使用 6 顆 HBM3e 的 H200 以及 8 顆 HBM3e 的 B100,并同步整合 NVIDIA 自家基于 Arm 架構(gòu)的 CPU 與 GPU,推出 GH200 以及 GB200。
除了 HBM3 與 HBM3e 外,據(jù) TrendForce 集邦咨詢了解,HBM4 預(yù)計(jì)規(guī)劃于 2026 年推出,目前包含 NVIDIA 以及其他 CSP(云端業(yè)者)在未來(lái)的產(chǎn)品應(yīng)用上,規(guī)格和效能將更優(yōu)化。
受到規(guī)格更往高速發(fā)展帶動(dòng),將首次看到 HBM 最底層的 Logic die(又名 Base die)采用 12nm 制程 wafer,該部分將由晶圓代工廠提供,使得單顆 HBM 產(chǎn)品需要結(jié)合晶圓代工廠與存儲(chǔ)器廠的合作。
再者,隨著客戶對(duì)運(yùn)算效能要求的提升,HBM4 在堆棧的層數(shù)上,除了現(xiàn)有的 12hi (12 層) 外,也將再往 16hi (16 層) 發(fā)展,更高層數(shù)也預(yù)估帶動(dòng)新堆棧方式 hybrid bonding 的需求。HBM4 12hi 產(chǎn)品將于 2026 年推出;而 16hi 產(chǎn)品則預(yù)計(jì)于 2027 年問世。