デザインツール

入力が無効です。特殊文字には対応していません。

データセンター

電力を最大限に有効活用する:低消費電力メモリがもたらすデータセンター変革

スダルシャン・ヴァジクダイ | 2025年3月

AIテクノロジーの急速な普及に際し、データセンターは消費電力を抑えながらいかに計算能力を最大化するかという課題に常に直面しています。米国のデータセンターとAIにおける電力消費量は2028年までに3倍に達する可能性があり、同国のエネルギー需要を大幅に押し上げると考えられています。2023年に米国のデータセンターが消費した電力は、推定で176テラワット時と見られています。2028年までにこの数字は580テラワット時に達すると予測されています。これは米国の総電力消費量の12%を占め1、たった5年でエネルギー使用量が3.3倍となる計算です。

AIおよびその他のデータ集約型アプリケーションの普及を背景に消費電力が急速に伸びるというこの予測から、米国および世界のデータセンターインフラストラクチャにおけるエネルギー需要の増加を支える先端的なハードウェアテクノロジーの重要性がわかります2。Micron® LPDDR5Xのような革新的な低消費電力(LP)メモリアーキテクチャーを開発・採用することで、従来のDDR5メモリが伴う電力消費の増大なく、大幅なパフォーマンス向上がもたらされます。

LPメモリが必要な理由

Micron® LPDDR5Xは、エネルギー消費を格段に抑えつつ高速性能を発揮できるよう設計されています。DDR5のような従来型のメモリテクノロジーと異なり、LPメモリはより低い電圧で動作するため、電力効率もエネルギー効率も改善できます。

  • 消費電力の低減
  • 熱発生の抑制
  • 省エネを重視した回路設計の最適化

AI主導のデータセンターにおいて、電力効率およびエネルギー効率の向上は継続的な課題です。大規模顧客サポート環境で推論を実行するLlama 3 70Bについて考えてみましょう。1つのGPUが、顧客からの数千件もの複雑な問い合わせをリアルタイムで処理しながら、AIインタラクションの複雑な動きも管理しています。LPメモリを使用すると、こうした集中的な計算ワークロードを、格段にエネルギー効率の高いプロセスへと転換できます。

システム構成の違いでパフォーマンスを比較

表1:システム構成の違いでパフォーマンスを比較

推論パフォーマンス

表1は、今回の比較で使用した2つのシステム構成をまとめたものです。1つは従来のx86プラットフォームに基づく構成、もう1つはNVIDIA Grace Hopper Superchipを搭載した構成です。いずれの構成も、パッケージに内蔵されたHBM3メモリを備えたNVIDIA H100 GPUを統合していますが、CPUアーキテクチャーとシステムメモリの種類が異なります。

図1:正規化されたレイテンシー

図1:Llama 3 70Bの正規化された推論スループット

従来のDDR5(PCIe接続のHopper GPUを搭載したx86システム)との比較でLPDDR5Xメモリを(NVLinkで接続したNVIDIA GH200 Grace Hopper Superchipで)テストした結果、重要なパフォーマンス向上を確認できました。メタのLlama 3 70Bでの推論パフォーマンステストでは、LPメモリシステムは以下を達成できました。

  • 5倍の推論スループット
  • レイテンシーが約80%向上
  • エネルギー消費量を73%削減
図2:正規化されたレイテンシー

図2:Llama 3 70Bの正規化された推論スループット

環境意識の高まりとともに、AIアプリケーションにはさらなる計算能力が求められるなか、低消費電力メモリは単なるテクノロジーのアップグレードを超えた、最先端のデータセンターが求める戦略的な必須事項となっています。実際、LPメモリテクノロジーは、電力消費量の低減と同時に運用コストの削減を達成することで、データセンターに経済面でのメリットをもたらします。電力需要の削減は、冷却に必要な電力の低減と電気料金の節約に直結します。データセンター事業者にとって、こうした改善により、ユーティリティコストの削減とカーボンフットプリントの大幅な低減を実現できます。さらに、消費電力とパフォーマンス上のメリットは、運用効率の向上に留まりません。応答時間の改善に見られるように、より大きいスループットとより優れたレイテンシーにより、いちだんとスムーズなユーザーエクスペリエンスを提供できます。

図3:LLM推論のためのエネルギー効率

図3:LLM推論のためのエネルギー効率

未来はエネルギー効率を求めている

進化し続けるAIがデータセンターの計算能力とメモリの限界を押し広げるなか、LPDDR5Xなどの先端的なメモリテクノロジーは、データセンター運用を効率化し、サステナブルなコンピューティングを実現する手段として浮上しています。電力需要を低減しながら推論などのAIタスクのパフォーマンスを高速化すれば、より多くをより少ない時間で処理できるようになります。AIの未来はエネルギー効率にかかっています。LPメモリが示したように、AIパフォーマンスの限界を押し広げると同時にカーボンフットプリントを削減することは可能で、最終的にAIをよりサステナブルな道に導くことができるからです。


詳細


1. U.S. Department of Energy. (2024年). DOEはデータセンターが必要とする電力需要の増加について評価し、新しいレポートを公開しました。https://www.energy.gov/articles/doe-releases-new-report-evaluating-increase-electricity-demand-data-centers

2. International Energy Agency. (2024年). Electricity 2024: Executive summary. https://www.iea.org/reports/electricity-2024/executive-summary

システムデザインエンジニアリングフェロー

Sudharshan Vazhkudai

マイクロンテクノロジーのシステムデザインエンジニアリングフェローであるスダルシャン・S・ヴァズクダイ博士は、データセンターおよびクライアントワークロードエンジニアリングチームを立ち上げました。このチームにより、ワークロードに最適化された最新のシステムアーキテクチャーを構築するためにはどのようにディープメモリ階層を活用できるかについて、システムの全体像を見きわめられるようになりました。ヴァズクダイ博士は以前、オークリッジ国立研究所で20年以上にわたりデータセンターソリューションの構築に携わっていました。ミシシッピ大学でコンピューターサイエンスの博士号を取得しており、テネシー大学では共同教員を務めていました。