HBM4時代の幕開け——マイクロン、AIメモリ市場の高地を攻略

更新時間: 6 16, 2025     読者層: 501

HBM4時代の幕開け——マイクロン、AIメモリ市場の高地を攻略

2024年6月10日、マイクロン・テクノロジーは、容量36GBのHBM4(12層積層)エンジニアリングサンプルを複数の主要顧客に提供開始したと発表しました。これにより、同社の高帯域幅メモリ(HBM)製品は新たな発展段階に入り、次世代AIアクセラレーションプラットフォームに向けた強力な演算能力を提供します。

新開発のHBM4メモリは、マイクロンの1β(1-beta)プロセス技術と24Gb DRAMダイを採用。12層積層パッケージと2048ビットインターフェースを実装し、単一スタックで2.0TB/s以上の帯域幅を達成。前世代のHBM3E比で性能60%以上、省電力効率20%以上の向上を実現しました。さらに先進的なMBIST(メモリ内蔵自己テスト)機能を搭載し、ロジックxPUとのデータ転送効率を向上させることで、AI推論速度と電力効率の大幅な改善を図っています。

マイクロンによれば、HBM4は次世代AIシステムとの統合を想定して設計され、特にデータセンター向けの大規模言語モデルや高密度推論ワークロードに最適です。同社は2026年までに生産能力を拡大し、医療、金融、交通など多分野のインテリジェント化を支援する計画です。

現在のHBM4市場では、SKハイニックスがNVIDIAにサンプルを提供済みで2024年中の量産を目指しており、サムスン電子は1c DRAMプロセスを用いたHBM4開発を進め、2024年第3四半期の検証完了を予定しています。マイクロンはサンプル提供でサムスンをリードし、業界トップを追う姿勢を示しています。

マイクロン・クラウド&メモリ事業部のRaj Narasimhan上級副社長は、「HBM4の高性能と省電力性は、当社のメモリ技術革新の成果です。生成AI時代においても、AIメモリ製品でお客様を支援していきます」と述べています。

HBM4の登場は、半導体産業が高密度・低消費電力の3D集積時代に入ったことを示しています。AIモデルの大規模化に伴い、HBM4は生成AIや大規模言語モデルなどの先進アプリケーションを支える基盤技術として期待されています。さらに、TSMCのCoWoSやサムスンのI-Cubeなどの先進パッケージング技術の発展も促進するでしょう。

2026年の量産開始に向け、AIメモリ市場は新たな局面を迎えようとしています。高帯域幅メモリはAI時代のシステム性能を決定づける核心技術であり、HBM4はその発展における重要なマイルストーンと言えます。