デザインツール
ストレージ

NVIDIA GTC 2024から見えてくる3つのポイント

アルバロ・トレド | 2024年4月

NVIDIAのGPUテクノロジーカンファレンス(GTC)は、AI業界で最も期待されているイベントの1つで、GPUコンピューティング、ディープラーニング、コンピュータービジョンなど、最新のイノベーションやトレンドを紹介しています。今年のGTC 2024は3月18~21日にかけて開催され、この分野の専門家やリーダーによる900を超えるセッション、基調講演、デモ、ワークショップが行われました。NVIDIAの誇りあるパートナーであるマイクロンもこのイベントに参加し、次世代のAIプラットフォームやアプリケーションを実現に導くメモリとストレージソリューションについて発表しました。AIエコシステムにおけるメモリとストレージの重要性を明らかにしたGTC 2024で見えてきた主なポイントを3つ、以下に挙げます。
 

1. メモリとストレージはAIプラットフォームを実現するための重要な要素
 

データはAIにとって極めて重要であるため、GTC 2024の主要テーマの1つは、AIワークロードにおけるメモリとストレージのパフォーマンスや容量に対する需要の高まりでした。AIモデルのサイズと複雑性が増す中で、より多くのデータを高速かつ低レイテンシーで処理し、保存する必要が生じています。これは、従来のメモリとストレージアーキテクチャーの課題であり、AIのパフォーマンスと効率に関するボトルネックになる場合があります。マイクロンはこの課題に対処するため、AIプラットフォームのデータフローと可用性を最適化するように設計されたメモリとストレージソリューションのポートフォリオを紹介しました。これには以下が含まれます。

  • 業界をリードするパフォーマンスと電力効率を誇る、マイクロンの8層積層24GBおよび12層積層36GB HBM3E。マイクロンの8層積層24GB HBM3Eは現在量産中で、2024年(暦年)第2四半期に出荷されるNVIDIAのH200 GPUの一部となる予定
  • Micron CZ120CXL™メモリモジュールは、AIとインメモリワークロードを高速化するために必要な容量、帯域幅、柔軟性を実現
  • 3D医療画像処理の業界標準であるUnet3Dにおいて、最大17個のGPUに対応するマイクロンの9000および7000シリーズSSD
  • 競合他社による容量を重視したSSDと比較した場合、AIデータレイクの取り込みを最大48%ブーストするマイクロンの6000シリーズSSD1
  • LLM、コンピューター画像処理、GNNなど、AIトレーニングやAI推論を改善するマイクロンのテクノロジーを実証する実環境ラボの結果

 


マイクロンはデータスタック全体(ニアメモリ、メインメモリ、拡張メモリ、SSDデータキャッシュ、ネットワーク接続されたデータレイク)でこれらのメモリとストレージソリューションを活用することによって、AI革命の加速を支援し、AIプラットフォームがより多くのデータをより高速かつ効率的に処理できるようにします。
 

2. AIはPCIe® Gen5のキラーユースケース
 

GTC 2024のもう1つのハイライトは、PCIe Gen5インターフェースをベースにした新しいNVIDIA B100アクセラレーターの紹介でした。PCI Express規格は、高性能なCPU、GPU、SSD、ネットワークカードを接続する際に最も広く使われているインターフェースです。PCIe Gen5はGen4の2倍の帯域幅を実現し、レーンあたり最大32GT/秒のデータ転送が可能です。これは、データスループットの向上から恩恵を受けることがあるAIワークロードに大変革をもたらすでしょう。

ただし、データセンターでPCIe Gen5の潜在能力を最大限に活用するには、そのインターフェースに接続するデバイスも高速化と低レイテンシーに対応できなければなりません。そこで登場するのが、マイクロンのPCIe Gen5 SSDです。

NVIDIA、Dell、マイクロンは先日コラボレーションし、マイクロンのPCIe Gen5 SSD、Big Accelerator Memory2 (BaM)、NVIDIA H100アクセラレーター、PowerEdgeサーバーのメリットを紹介しました。このデモでは、PCIe Gen5高性能SSDにGNNトレーニングモデルのファイルを移動すると、Gen4と比較して、グラフニューラルネットワークのトレーニング時間を50%短縮できることを示しました。
 


また、このテストでは、NVIDIA A100(とGen4)と比較して、H100(とGen5)が5倍のパフォーマンス改善を示しました。GPUパフォーマンスが世代ごとに5倍ずつ向上しているため、ストレージデバイスも同じく急速に進歩させる必要があります。一般的なディープラーニング推奨モデル(DLRM)ワークロードでは、キュー深度が10~100となり、128K~512Kのチャンクを読み込みます。Gen5 SSDでは、これが通常、最大14GB/秒というドライブスループットに達します。AIモデルのファイル移動では、小さなブロックのパフォーマンスが極めて重要になります。上述したGNNデモでは、1,000を上回るキュー深度で4Kブロックを読み込み、最速のPCIe Gen5 SSDの最大ランダム読み取りスループットを簡単に達成しました。
 


マイクロンのPCIe Gen5テクノロジーデモでは、14GB/秒のシーケンシャルスループットだけでなく、3,300,000 IOPSというランダム読み取りも示しました。これは4Kワークロードで13.2GB/秒のスループットに相当し、現在市場に出回っている競合製品と比べて22~32%高速になります。
 


マイクロンのPCIe Gen5 SSDは、このように高性能と効率性を提供することで、新しいNVIDIAアクセラレーターの性能を最大限に引き出すAIプラットフォームを実現し、結果として、迅速な成果をもたらし、AIハードウェア購入に対する投資利益率を高めます。
 

3. ネットワーク接続されたデータレイクを大容量SSDに展開することが増えている
 

GTC 2024で見えてきた3つ目のポイントは、AIアプリケーションによって生成され、消費される大量のデータを保存し、アクセスするために、ネットワーク接続されたデータレイクをHDDではなくSSDに展開するトレンドが拡大していることです。ネットワーク接続されたデータレイクは、InfiniBandやイーサネットなどのネットワークを介してAIプラットフォームに接続する、分散型の大規模データリポジトリです。ネットワーク接続されたデータレイクは、AIデータにスケーラブルで柔軟性のあるストレージ容量を提供し、さまざまなプラットフォームやユーザー間でのデータ共有やコラボレーションを可能にします。一方で、データ転送速度や密度に関する課題が生じ、総所有コスト(TCO)の計算に大きく影響します。

そうした課題を克服するために、多くのAIユーザーや開発者はHDDではなく、Micron 6500 IONなどの大容量SSDを選択して、ネットワーク接続されたデータレイクを構築・運用しています。このクラスのSSDには、HDDと比べて、ネットワーク接続されたデータレイクに適した以下のような利点があります。

  • データの取り込みと処理速度が速いため、AIモデルのトレーニングや推論にかかる時間とコストを削減できる。PCIe Gen4 SSDは、シーケンシャル読込性能で最大6.8GB/秒を実現し、シーケンシャル書き込み性能でも5.7GB/秒を上回ることがあります1。これはHDDよりもはるかに高速です。HDDでは、シーケンシャル読込性能もシーケンシャル書き込み性能も300MB/秒に届きません3。つまり、こうした大容量SSDはHDDの22倍を上回る速度でデータを処理できるため、AIのワークフローと成果を大幅に高速化できます。
  • データ密度が高く、消費電力が低いため、TCOを削減し、ネットワーク接続されたデータレイクの効率性を高めることができる。SSDは、1ドライブあたり30.72TBのデータを1立方インチあたり4.8TBという高密度で保存できます。これは、現在最も高密度な24TBのニアラインHDDの約5倍になります4。つまり、SSDは少ないスペースでより多くのデータを保存できるため、ネットワーク接続されたデータレイクのハードウェアやインフラにかかるコストを削減できます。

 


結論として、GTC 2024はAI業界における最新のイノベーションとトレンド、そしてAI革命を推進するマイクロンのメモリとストレージソリューションを紹介する素晴らしいイベントでした。マイクロンはNVIDIAのパートナーであることを誇りにしており、引き続き、AIエコシステムに関するコラボレーションと貢献を楽しみにしています。

 

バイスプレジデント兼データセンターおよびストレージ担当ゼネラルマネージャー

Alvaro Toledo

アルバロはマイクロンのバイスプレジデント兼データセンターストレージ担当ゼネラルマネージャーです。データセンターストレージの戦略、製品およびテクノロジーロードマップ、テクノロジー顧客エンゲージメント、損益(P&L)を担当しています。

アルバロは、国立大学でコンピューターサイエンスの学士号を取得し、カリフォルニア大学バークレー校ハースビジネススクールでMBAを取得しました。