マイクロンのテクノロジーが、未来のAIデータセンターの実現を支援
- 近接メモリ
- メインメモリ
- 拡張メモリ
- ローカルSSDのデータキャッシュ
- ネットワーク化されたデータレイク
AIデータセンターの潜在能力を解き放つ
どのAIサーバーボックスにも、高速かつ革新的なAIを支援するメモリとストレージのピラミッドまたは階層が組み込まれています。マイクロンの最先端テクノロジーにより構築されたデータセンターで、ボトルネックの改善、サステナビリティと電力効率の向上、総所有コストの削減が実現します。
ピラミッドを使ってマイクロンのAIポートフォリオを詳しく調べる
箱の中を見てみる
最先端のテクノロジーも、美しい地球環境があってこそ
よくある質問
AIのワークロードには高い計算能力が必要で、大量の熱を発生させることから、強固なインフラストラクチャの更新が欠かせません。そのため最新のAIデータセンターは、最先端の冷却技術、再生可能エネルギー源、最適化されたレイアウトで設計され、最大限のパフォーマンスとサステナビリティを可能にしています。また、AIアプリケーションは複雑な計算を効率的に処理する必要があることから、専門のハードウェアに依存することが多く、適切なCPUとGPUの選択も極めて重要になります。このように慎重に選択することで、エネルギー消費を最小限に抑えながら処理能力を最大限に高めることができ、AIデータセンターの全体的な効率と有効性も向上します。
マイクロンの8層積層24GBおよび12層積層36GBのHBM3Eは、1.2TB/秒を超える帯域幅で業界最高峰の性能を実現し、消費電力は市場における他の競合製品よりも最大30%削減しています。
AIデータと機械学習データのワークロードでは、メモリがシステムの全体的な性能を決定する重要な役割を果たします。AIデータと機械学習データのワークロードに向くとされる2つの有力なメモリタイプは、高帯域幅メモリ(HBM)とダブルデータレート(DDR)メモリ、特にDDR5です。どのメモリがAIトレーニングデータのワークロードに最適であるかは、AIモデルトレーニングアルゴリズム固有の要件、自動データ処理の規模、全体的なシステム構成など、様々な要因によって異なります。HBM3EとDDR5はどちらも重要なメリットがあります。どちらが適しているかは、個々のAIメモリのユースケース、予算、使用できるハードウェアオプションによります。マイクロンは、AIモデルトレーニング用として最新世代のHBM3EおよびDDR5を提供しています。
HBM3Eメモリは、革新的なアーキテクチャーと高帯域幅対応能力を備えた、帯域幅、速度、エネルギー効率の点で最もハイエンドのAIモデルトレーニングソリューションです。AIトレーニング用DDR5メモリモジュールの方が一般的に主流であり、HBMソリューションより良好なコスト効果が得られます。
AIワークロードにとって総容量が最も重要な要素となる場合、CXL規格を採用したMicron CZ120メモリ拡張モジュールにより、ダイレクトアタッチメモリチャネルを超える最適化されたパフォーマンスが可能になります。
理想的な機械学習データおよびAIモデルストレージソリューションを選ぶには、複数の要素を考慮する必要があります。速度、パフォーマンス、容量、信頼性、耐久性、スケーラビリティを考慮することが重要です。AIのワークロードに最適なインテリジェントストレージソリューションは、用途、予算、全体的なシステム構成などの条件よって異なります。マイクロンは、機械学習データやAIモデルのストレージニーズに最適な、クラス最高のNVMe SSDを提供しています。世界最速のデータセンターSSDであるMicron 9550 NVMe SSDは、業界をリードするイノベーションによって構築されており、AIやそれ以外の用途に向けてPCIe® Gen5の優れたパフォーマンス、柔軟性、セキュリティを実現します。Micron 6500 ION NVMe SSDは、ネットワークに接続されたデータレイクに最適な大容量ソリューションです。
1 従来の1αノード世代との比較。
2 JEDEC規格に基づく。
3 市販されている競合3DSモジュールと比較した際の測定データ(pJ/ビット)(2023年6月)。
4 128GB MRDIMM 8800MT/秒と128GBレジスタードメモリ6400MT/秒を比較したIntelメモリレイテンシーチェッカー実証データ。
5 128GB MRDIMM 8800MT/秒と128GBレジスタードメモリ6400MT/秒を比較した実証的Stream Triadデータ。
6 128GB MRDIMM 8800MT/秒と128GBレジスタードメモリ6400MT/秒を比較した実証的OpenFOAMタスクエネルギー。
7 LPDDR5Xのデータレート8533 Mbpsと比較
8 前世代製品との比較
9 12チャネルの4,800MT/秒レジスタードメモリに4x256GB CZ120を採用した場合とレジスタードメモリのみの場合のMLC帯域幅の比較。
10パフォーマンスの比較は、1 DWPD 7.68TB容量のSSDを搭載した性能重視の第5世代SSDに関する製品販売時の公開データ情報に基づく。QD512におけるシーケンシャルおよびランダムスループット。複数の公開情報によると、NVIDIA H100 GPUを使用したグラフニューラルネットワーク(GNN)のトレーニングワークロードにおいて、https://www.tomshardware.com/news/nvidia-unveils-big-accelerator-memory-solid-state-storage-for-gpusやGPU-Initiated Direct Storage(GIDS)などのBig accelerator Memory(BaM)について、マイクロンのラボで性能重視のGen5 SSDとの比較テストが行われたことが言及されている。
11 Llama3 405BパラメーターLLMをモデルとしたチェックポイントのワークロード。このモデルは8GPUサーバーを表しています。チェックポイントサイズは415GBです。図表は、1つのチェックポイントに必要な時間、1つのチェックポイントで消費されるSSDエネルギー、チェックポイント処理中のSSDスループット(Solidigm D5-P5336との比較)を表しています。詳細は、Micron 6550 ION SSD AI Tech Briefをご覧ください。
12 この比較では、6550 IONの発売時点での公開ソースで一般に提供されていた競合製品の情報を基にしています。6550 IONは最大20Wの電力を使用し、競合ドライブは25Wの電力を使用することから、6550 IONの最大消費電力は最大20%低くなります。
13 Micron 6550 IONは最大61.44TBの容量を提供します。E3.S対応サーバーは、1Uに最大20台のSSDを搭載するよう構成できます。