当前位置:首页 >新聞 >新型AI加速芯片或助力HBM3和HBM3e主導2024年市場

新型AI加速芯片或助力HBM3和HBM3e主導2024年市場

2025-11-02 21:27:15 [影視] 来源:炒豇豆網
  8月2日消息 據市場研究公司 最新報告">TrendForce 最新報告指出,2023 年 HBM(高帶寬存儲器)市場的主導產品是 HBM2e,該產品由英偉達 A100/A800、AMD MI200 以及大多數雲服務提供商的自主開發的加速器芯片所采用。

  隨著對 AI 加速器芯片需求的不斷發展,製造商計劃在 2024 年推出新的 HBM3e 產品,預計 HBM3 和 HBM3e 將成為明年市場的主流。

  HBM 各代之間的區別主要在於速度。在過渡到 HBM3 一代時,行業中出現了許多令人困惑的命名。TrendForce 明確指出,當前市場上所謂的 HBM3 應分為兩個速度類別。一個類別是運行速度在 5.6 至 6.4 Gbps 之間的 HBM3,另一個類別是 8 Gbps 的 HBM3e,也被稱為 HBM3P、HBM3A、HBM3+和 HBM3 Gen2 等多種名稱。

  三大主要製造商 SK 海力士、三星和美光在 HBM 的發展狀態上存在差異。SK 海力士和三星從 HBM3 開始著手,該技術被用於英偉達的 H100/H800 和 AMD 的 MI300 係列產品中。預計這兩家製造商還將在 2024 年第一季度開始提供 HBM3e 樣品。與此同時,美光選擇跳過 HBM3,直接開發 HBM3e。

  HBM3e 將采用 24Gb 單芯片堆疊,並在 8 層(8Hi)基礎上,單個 HBM3e 的容量將達到 24GB。預計這將應用於英偉達的 GB100,該產品將於 2025 年推出。因此,主要製造商預計將在 2024 年第一季度發布 HBM3e 樣品,並計劃在 2024 年下半年開始大規模生產。

  雲服務提供商正在開發自己的 AI 芯片,以減少對英偉達和 AMD 的依賴。在 AI 服務器加速器芯片領域,英偉達繼續占據最高市場份額。然而,英偉達的 H100/H800 GPU 價格在每台 2 萬至 2.5 萬美元之間,再加上 AI 服務器的推薦配置需要 8 張卡,大大增加了總擁有成本。因此,雖然雲服務提供商將繼續從英偉達或 AMD 采購服務器 GPU,但同時計劃開發自己的 AI 加速器芯片。

  科技巨頭穀歌和亞馬遜 AWS 已在這一領域取得了重大進展,其中穀歌成立了 Tensor 處理單元(TPU),AWS 推出了 Trainium 和 Inferentia 芯片。此外,這兩個行業領導者已經在努力開發下一代 AI 加速器,將采用 HBM3 或 HBM3e 技術。

  此外,北美和中國的其他雲服務提供商也正在進行相關驗證,預示著未來幾年 AI 加速器芯片市場可能出現激烈競爭。

(责任编辑:影視)

推荐文章
热点阅读