デザインツール
アプリケーション

HBM2E:最新のデータセンター向けのマイクロンの最速メモリ

ビル・ランドルフ | 2021年6月

データセンターは、迅速で効率的なデータの保存、移動、分析といった課題を解決するよう進化しつつあります。この進化はかなりの程度まで、下の図に示す高性能アプリケーションの4つのトレンドによって促進されています。

従来型ゲーミングと専門的可視化は、主にPCの領域であり、高速GDDRメモリのイノベーションによって満たされています。しかし、高性能コンピューティングによる人工知能(AI)トレーニングおよび推論に関しては、データセンターで最高速のメモリである、高帯域幅メモリ(HBM)を使用するケースが増加しつつあります。このような分野のアプリケーション設計では、可能な限り最大の帯域幅を見つけなければなりません。

なぜなのか、しばし考えてみましょう。もちろん、その理由はデータです。大量のデータです。

GDDRからHBMへのスペクトルの画像、ゲーミングから高性能コンピューティングまで

データの増加が加速しています。IDCのGlobal Datasphere 2021レポートによると、世界のデータ量は、2018年の時点で36ゼタバイトだったのが、2020年には64ゼタバイトに増加し、2024年には146ゼタバイトへと増え続ける見通しです。

AI、深層学習、機械学習のパフォーマンスには、大量のデータが不可欠です。人間による発見を超えて新しいインサイトを導き出すインテリジェンスの提供において、AIは大変革をもたらします。プログラミングによるコンピュートインフラストラクチャの代わりに、大量のデータを使用してAIをトレーニングすることで、スマート農業、パーソナライズ教育、精密医療などの分野で、かつてないほどの前進が可能になります。

マイクロンでは、アナリティクスエンジンの稼働や、次の波となるAIアルゴリズムのトレーニングに対応するため、超高帯域幅ソリューションの一環として、GDDRやHBMなどの新しいテクノロジーを提供しています。たとえば、13億以上のパラメータを使用するAIモデルは、1個のGPUには収まりません(32GBのメモリを搭載したGPUでも同様)。そのため、メモリ容量を拡大することで、より大規模なモデルサイズ/より大量のパラメータを、コアコンピュートの近くに配置することが可能になります。マイクロンは帯域幅と容量を増やし、メモリとストレージソリューション間のレイテンシーを減らすことにより、インサイトを獲得するまでの時間を短縮し、お客様が高度な競争優位性を見出せるよう支援しています。

マルチコンポーネント、アクセラレータベースの異種混在型アプローチ

データ集約型のワークロードやアプリケーションの増加、ユースケースの進化、新たなビジネス機会に対応するために、データセンターインフラストラクチャが再定義されつつあります。従来のデータセンターデータセンターは、CPU中心型でした。メモリ(DDR4など)とストレージ(SSDなど)を使用して、データが処理されていました。AIなどの最新のユースケースとワークロードの出現とともに、必要となる高性能な速度でCPUにフィードし続けるには、この従来型のアーキテクチャがボトルネックになることが明らかになりました。

この拡大し続けるパフォーマンスギャップに対処するため、CPUの一部の機能をオフロードする目的で、専用のハードウェアが使用されています。この新しいアクセラレータベースのコンピュートモデルが、異種混在型データセンターの進化の中心になりつつあります。最新のデータセンターにおける再配置のプロセスでは、特定の機能、またはデータタイプ/フォーマットの高度な可変性を焦点とする多様なコンポーネントが採用され、それによってシステム全体の速度とパフォーマンスを大幅に向上させています。

DDR4(と、すぐにDDR5)コンピューティングメモリを使用する従来のCPUに、GPUによるアクセラレーション、FPGAおよびASICによるその他の機能が追加されています。最新のデータセンターでは、このように多様なコンピュート機能を使用できます。広範囲のワークロードへの対応に必要な高性能を達成するには、さまざまなタイプのメモリの使用が不可欠になっています。

HBMの導入は、まさにこのような理由からです。HBMはパフォーマンスを新たなレベルに引き上げつつあります。HBMの最新世代で、マイクロンの最速のDRAMであるMicron HBM2Eは、お客様に優れたインサイトをもたらすための中核部分です。

マイクロンの新しいHBM2Eメモリについて、詳細はビデオ「Micron HBM2E:パフォーマンスがすべて」をご視聴ください。

HBM2E:超高帯域幅ソリューションポートフォリオの立役者

マイクロンは、絶えず成長しながら世界を変えつつある市場アプリケーションのダイナミックかつ厳しい要件に対応する、進化したメモリソリューションで市場をリードしています。

HBM2Eは、シリコン貫通電極(TSV)チャネルを使用し、縦方向にスタックされたDRAMを作成しています。(詳細については、技術概要「HBM2Eメモリの統合と運用」を参照してください。)マイクロンは20年にわたってスタック型DRAMの研究と開発を行っており、その過程で数千に及ぶ特許を取得しています。(マイクロンのR&Dリーダーであるアクシェイ・シンによる「スタック型シリコンの奇跡」で、詳しく説明されています。) マイクロンはスタック型DRAMの今後のイノベーションを追求するにあたり、よりデータ集約型のワークロードにおける高性能と低消費電力のニーズを満たす新製品の開発を目指しています。

HBM2Eの縦方向にスタックされたDRAMを示す図

HBM2Eでは縦方向にDRAMをスタックし、シリコン貫通電極(TSV)チャネルを使用して各層を接続しています。

高帯域幅メモリは、業界における帯域幅、電力、フォームファクターの問題を解決するよう設計されており、今ではAI向けの業界標準のメモリソリューションとなり、データセンターで幅広く使用されています。HBM2EはHBM製品ファミリーの3番目の標準であり、HBM1、HBM2に次いで、現在のHBM2Eとなっています。HBM2Eは、非常に幅の広いマルチチャネルI/O(1,024ビット幅)を提供し、非常に短い物理的チャネルを使用します。基本的に、省スペースで極めて高いメモリ密度を提供します。

HBM2Eは、GPUまたはCPUと非常に近いインターポーザー上に配置され、一般に同じパッケージまたは熱拡散エンクロージャ内に収容されます。広いI/Oバスと高い密度により、HBM2Eは最新のデータセンターにおけるアクセラレータベースのコンピュートモデルに必要な高性能と電力効率を提供します。

マイクロンが提供するデータセンター向けアクセラレータメモリのポートフォリオおよび高性能メモリの各モデルを比較するには、ホワイトペーパー「超高帯域幅ソリューションの必要性」の表1をご覧ください。マイクロンの超高帯域幅ソリューションポートフォリオの基盤となるHBM2Eの拡張されたI/Oパフォーマンス、帯域幅、電力効率に、私たちは胸が躍る思いです。

まとめ

高性能アプリケーションの需要によって次世代のシステムアーキテクチャーおよび異種混在型データセンターの進化が加速しつつある現在、HBM2Eメモリとマイクロンの超高帯域幅ソリューションは、データをインサイトに変換するうえで決定的に重要なメモリと高度なシステムパフォーマンスを提供します。micron.com/hbm2eで詳細をご覧ください。

Sr Manager - DEG Graphics

Bill Randolph

Bill Randolph drives business development as a director in Micron’s global graphics memory business. His responsibilities include growing Micron’s partner base and focusing on Micron’s broad portfolio of high-speed memory solutions that serve the game console and high-end graphics market.

Bill has more than 10 years of experience at Micron and has held a variety of roles in both Ecosystem Enablement and Consumer/Graphics Business Development. He has worked in the DRAM industry since 1990, previously with Mitsubishi and Qimonda, in design, development center management and sales. He received his B.S. in electrical engineering from Florida State University and his M.S. in electrical engineering from Georgia Tech.