デザインツール

入力が無効です。特殊文字には対応していません。

さまざまに広がる用途

AIを実現する力:エネルギー効率の次のフロンティアであるメモリ

マイクロンテクノロジー | 2025年8月

コンピューティングの分野では世代交代が進んでいます。AIはもはやニッチなワークロードではなくなり、インフラ戦略、半導体のロードマップ、ビジネス方針の決定にも影響力を持つようになってきました。その影響力の大きさは圧倒的です。ハイパースケーラーはクラスターあたり数万台のAIアクセラレーターを導入し、1兆パラメーター規模のモデルをトレーニングしており、各デプロイメントゾーンあたりメガワット単位の電力を消費します。

AIのパワー、つまり、産業を変革し、発見を加速させ、人間の能力を拡張する能力を、業界は高く評価しているのです。しかし、今、私たちは深刻な現実と向き合わねばなりません。AIを実現する力(AIのワークロードを実行するために必要なエネルギー)が、イノベーションにおいて特に大きなな制約の1つとなりつつあります。

これまでの対応策はありきたりなものでした。コンピューティングの最適化。ラックの冷却。グリーン電力の購入量を増やす。これらも必要な措置ですが、もうそれだけでは十分ではありません。コンピューティングがエネルギー効率向上の鍵だという考え方は、ますます時代遅れになりつつあります。実際、このことによって、最も強力でありながら十分に活用されていない、効果のある可能性が見過ごされているかもしれません。

今こそ、メモリに注目すべきです。

隠れたエネルギーの浪費源

AIインフラにおいて、メモリとストレージは補助的な存在と見なされがちであり、戦略的要素とは考えられていません。しかし、現代のAIクラスターにおいては、高帯域幅メモリ(HBM)、DRAM、SSD、それらを接続するインターコネクトを含むメモリサブシステムが、構成やワークロードによっては、システム全体の消費電力の最大50%を占めることがあります。モデルのサイズが大きくなり、データの移動が増えるにつれて、システム全体の消費電力に占めるその割合と、電力効率の高いメモリやストレージの重要性は高まるばかりです。

AIを支えるためにコンピューティングの最適化を進めた結果、エッジコンピューティングや分散型アーキテクチャーなど、さまざまなコンピューティングパラダイムが採用されるようになりました。データは、まるで重力のように処理能力を引き寄せます。そして、日々、膨大な量のデータが生成されています。2025年には世界で1日あたり402エクサバイトを上回るデータが生成される見込みです。実際的な意味で、AIはデータが存在する場所に移動するものであり、データが存在するのはメモリとストレージです。こうした仕組みによってメモリ使用量が増加し、さらなる電力最適化の機会が生まれています。

データの移動に伴うエネルギーコスト(メモリからアクセラレーターへ、SSDからDRAMへ、ラックやファブリック間の移動)が、現在では全体の消費電力の主要因になっています。SemiAnalysisによる独自の調査によれば、チェックポイント処理や集合通信といったメモリに依存する動作が、ハイパースケールAIクラスターにおける電力急増の最大の要因の1つです。これらのイベントは数十メガワット規模の瞬間的な変動を引き起こす可能性があり、エネルギー消費と電力系統の安定性において、メモリの役割がますます重要になっていることを明確に示しています。また、積極的なノードの拡張やアーキテクチャーイノベーションの恩恵を受けるコンピューティングとは異なり、メモリシステムはこれまで比較的段階的に進化してきました。

この点は見落としがちであり、効率性の問題に取り組む私たちが次に目を向けなくてはならない領域です。

新たな戦略:メモリ主導の効率性 

マイクロンでは、サステナブルなAIインフラの未来を牽引するのはメモリだと考えています。このアプローチでは、メモリを単なる後付けとしてではなく、パフォーマンスと効率性を追求するための戦略的基盤として、メモリからアーキテクチャ全体を再考することを意味します。

この変化はすでに、以下のような形をとりつつあります。

  • LPDDRとHBM:マイクロンの最新メモリテクノロジーは、業界屈指のワットあたりパフォーマンスを実現し、帯域幅を確保しながら消費電力を削減します。これは、最先端プロセスノードを使った効率化はもちろん、それぞれの設計で電力効率を追求し、アーキテクチャーの最適化を第一に掲げた結果です。

  • データ移動の最小化:データをコンピューティングに近づけ、不要な転送を減らすシステムアーキテクチャーで、大幅にエネルギーを節約できます。

  • テレメトリーと動的チューニング:メモリサブシステムのリアルタイム電力プロファイリングで、インテリジェントなスロットリングとワークロードを意識した最適化を実現します。

これは机上の空論ではありません。現在、世界で最も先進的なAIクラスターのいくつかで導入が進んでおり、説得力のある結果が出ています。

戦略的な必須事項 

インフラについて考えるリーダーにとって、この変化は技術的な関心をかき立てる以上の意味を持つ、戦略的な必須事項になっています。電力は今やスケールの拡大を制限する要因になっています。総所有コスト(TCO)は急激に膨れ上がりつつあります。サステナビリティは経営トップの必達課題です。そして、AI需要は従来のインフラが追いつかないペースで進んでいます。ハイパースケールAIデータセンターのワークロード出力の制約は、もはや所有するコンピューティングハードウェアではなく、電力網から調達できるエネルギー量によるものです。

メモリ主導の効率化は、新たな解決策を提供します。すぐに導入可能で、問題の規模に応じて拡張することもできます。これにより、ハイパースケーラーは同じ電力制約内で、より多くの容量を展開できるようになります。冷却コストとプロビジョニングコストの削減にもなります。そして、インフラチームにとっては、サステナビリティや経済性を損なうことなく、次世代AIワークロードの要求に応えられるようになります。

今後の見通し

今後を考えると、AIが世界を変革するかはもはや疑う余地がありません。問題は、その変革をどのように実現するかにあります。チップの高速化やデータセンターの冷却だけが解決策ではありません。効率の追求には、メモリとストレージを中核的な役割に据えて最適化する、よりスマートなアーキテクチャーこそが重要です。

マイクロンは、メモリをサステナブルな大規模AIの推進力にするために必要なテクノロジー、パートナーシップ、システムへの投資を通じて、この変革を主導していけることを誇りに思っています。AIのパワーは疑いようがありません。ただし、効率的かつサステナブルに、地球規模でAIを実現する力が、次の時代のイノベーションの鍵となるでしょう。

その未来を共に築いていきましょう。