デザインツール
アプリケーション

HBM3E 12層積層36GBの分野で、マイクロンが引き続きメモリ業界をリード

ラジ・ナラシンハン | 2024年9月

AIワークロードの進化と拡張が続く中、システムパフォーマンスにおけるメモリの帯域幅と容量の重要性はますます大きくなっています。業界最先端のGPUでは、最高パフォーマンスを備えた高帯域幅メモリ(HBM)と大きなメモリ容量、さらには省電力化も求められています。マイクロンはこのようなニーズを満たすメモリイノベーションの最前線に立っており、現在、AIエコシステム全体での認定を目的に、主要な業界パートナーに向けて、本番環境に対応したHBM3E 12層積層製品の出荷を開始しました。

業界をリードするマイクロンのHBM3E 12層積層36GBは、競合他社の8層積層24GBよりも大幅に消費電力が低く、パッケージごとのDRAM容量も50%増加

Micron HBM3E 12層積層製品は、現行のHBM3E 8層積層製品と比較して50%多い36GBという驚異的な容量を備え、700億ものパラメーターを持つLlama 2のような大規模AIモデルでも単一のプロセッサーで実行可能です。この容量増加によってCPUのオフロードやGPU間通信遅延を回避でき、インサイトを得るまでの時間が短縮します。

Micron HBM3E 12層積層36GBは、競合他社のHBM3E 8層積層24GBソリューションと比較して消費電力が大幅に抑えられています。また、本製品のメモリ帯域幅は1.2テラバイト/秒(TB/秒)超で、1ピンあたりの速度は9.2ギガビット/秒(Gb/秒)を超えます。こうしたMicron HBM3Eの長所が組み合わさることで、きわめて低い消費電力で最大限のスループットが得られるため、大量の電力を消費するデータセンターで最適な結果を得ることができます。

さらに、Micron HBM3E 12層積層製品は柔軟にプログラムできるMBISTを搭載し、システムの典型的なトラフィックを再現してフル仕様上の最高速度で実行可能です。これにより、テスト範囲が拡大して検証が迅速化することで、市場投入までの時間短縮やシステムの信頼性向上といったメリットが得られます。

エコシステムの堅実なサポート

マイクロンは、現在、AIエコシステム全体での認定を目的に、主要な業界パートナーに向けて、本番環境に対応したHBM3E 12層積層製品の出荷を開始しました。この節目となるHBM3E 12層積層製品はマイクロンのイノベーションの成果であり、進化するAIインフラストラクチャーが求める高いデータ負荷にも対応します。

また、マイクロンはTSMCの3DFabric Allianceのパートナーとして、これからも半導体の未来を切り拓き、システムのイノベーションに貢献してけることを嬉しく思います。AIシステムの製造は複雑なため、HBM3Eの統合にはメモリサプライヤー、顧客、外部委託先の半導体組み立て・テスト(OSAT)企業の間で緊密なコラボレーションが必要となります。

先日の交換会では、TSMCのエコシステムおよびアライアンス管理部門責任者を務めるダン・コーチパッチャリン氏が次のように述べています。「TSMCとマイクロンは長期にわたって戦略的パートナーシップを結んでいます。顧客のAIイノベーションを支えるため、弊社はOIPエコシステムの一環として、マイクロンのHBM3Eベースのシステムとチップ・オン・ウエハー・オン・サブストレート(CoWoS)パッケージング設計の実現に向けて緊密に協力してきました

Micron HBM3E 12層積層36GBの主な特長を以下にまとめました。

  • 複数の顧客による認定が進行中:マイクロンは、現在、AIエコシステム全体での認定を目的に、主要な業界パートナーに向けて、本番環境に対応したHBM3E 12層積層製品の出荷を開始しました。
  • シームレスなスケーラビリティ:容量36GB(現行HBM3Eよりも50%増加)のMicron HBM3E 12層積層製品で、増加の一途をたどるAIワークロードをデータセンターでシームレスに拡張できます。
  • 驚異的な効率性:Micron HBM3E 12層積層36GBは、競合他社のHBM3E 8層積層24GBソリューションと比較して消費電力が大幅に抑えられています。
  • 優れたパフォーマンス:マイクロンのHBM3E 12層積層36GBは1ピンあたりの速度が9.2ギガビット/秒(Gb/秒)、メモリ帯域幅は1.2TB/秒を超えており、超高速のデータアクセスが求められるAIアクセラレーター、スーパーコンピューター、データセンターを実現できます。
  • 迅速な検証:柔軟にプログラムできるMBIST機能を搭載し、システムの典型的なトラフィックを再現して実動作速度で実行できます。これにより、テスト範囲が拡大して検証が迅速化することで、市場投入までの時間の短縮やシステムの信頼性向上といったメリットが得られます。

将来の展望

生成AIワークロードに対する要求がより高度化する中、マイクロンの最先端のデータセンター向けメモリおよびストレージのポートフォリオは、これに応えるべく設計されています。マイクロンは、ニアメモリ(HBM)やメインメモリ(大容量サーバーRDIMM)から、Gen5 PCIe® NVMe SSDデータレイク用SSDまで、AIワークロードを効率的かつ効果的に拡張するための市場をリードする製品を提供しています。

マイクロンは今後も、業界におけるリーダーシップのさらなる強化に努めていまいります。これを踏まえ、将来を見据えたHBM4およびHBM4Eのロードマップを策定しています。こうした未来志向アプローチにより、メモリおよびストレージ開発の最前線に立ち続け、データセンターテクノロジーにおける次世代の進歩をリードしていく所存です。

詳細については、マイクロンのHBM3Eページをご覧ください。

Senior VP and GM, Compute & Networking Business Unit

Raj Narasimhan

Raj Narasimhan is senior vice president and general manager of Micron's Compute and Networking Business Unit. He is responsible for leading Micron’s largest business, driving advances in memory products focused on high-performance computing, artificial intelligence, and cloud and client computing.

Raj Narasimhan