デザインツール

入力が無効です。特殊文字には対応していません。

インサイト

AIの力でAIの進化を支える

プラディープ・クマール・ジラガム | 2025年7月

AIの活用:コンピューティングからメモリへ:マイクロンでの私の軌跡

 

視点の変化

初めて人工知能と出会ったとき、その可能性に心を奪われました。しかし、同時に、その実態をほとんど理解できていないことに途方もない圧倒感を覚えたんです。私がもともと興味を持っていたのは、主にCPU、GPU、NPUなどの演算アクセラレータと、そしてそれらがスマートフォンなどのエッジデバイスでAIを実現する役割についてでした。しかし、マイクロンへの入社を機に私の視点は大きく変わりました。それまで私は、メモリとストレージを単なる補助的な要素として見ていましたが、AIイノベーションには欠かせない重要要素として捉えるようになったのです。この気づきによって、新たな道が開けました。つまり、AIを単なるテクノロジーとしてでなく、製品開発と変革のための考え方として活用するようになったのです。

マイクロンがAI導入をどう推進しているか

AIモデルの規模とその複雑さが拡大し、パラメーターが数十億や数兆の単位に達することも頻繁に見られるようになるにつれ、より高速かつ効率的なデータアクセスを求める声が急増しました。これにより、コンピューティングにおける長年の課題であるメモリの壁の問題に再び注目が集まりました。これは、プロセッサーの速度と、メモリ帯域幅やレイテンシーとの間に広がる格差のことで、特に大規模モデルのトレーニングや推論時に、AIのパフォーマンスが大きく妨げられる可能性があります。

AIを普及させるには、こうした問題を解決する必要があるとマイクロンは考えています。これが、メモリとストレージを単なる補助的な構成要素ではなく、AIイノベーションを可能にする重要な要素と私たちが捉えている理由です。マイクロンの製品ポートフォリオは、これらの課題に正面から取り組むよう設計されています。

  • 近接メモリHBMGDDRのようなソリューションは、CPUやGPUと密接に統合されており、データやモデルパラメータへの超高速アクセスを可能にすることで、レイテンシーを最小限に抑え、スループットを最大化します。
  • メインメモリ標準DIMMMRDIMM低電力DRAMのような大容量かつ低レイテンシーのオプションは、電力効率を維持しつつ高いパフォーマンスを発揮し、最新のAIワークロードの要求に応えます。
  • 拡張メモリCompute Express Link(CXL)のような技術は、データ集約型ワークロード向けのスケーラブルなメモリ容量を実現し、メモリのボトルネックを解消しながら、総所有コストを削減します。
  • ストレージソリューション:高性能なNVMe SSDからデータレイク向けのコスト効率が優れたオプションまで、マイクロンのストレージ製品は、高い処理能力を必要とするAIのI/Oニーズに合わせて最適化されており、必要なときに必要な場所でデータを常に利用できます。
AIデータセンターのピラミッド

AIの進化するニーズに合わせてイノベーションを推進することで、マイクロンはメモリの壁を打破し、AI環境全体で新たなレベルのパフォーマンスと効率性を引き出すことに貢献しています。

マイクロンの製品ポートフォリオと将来のイノベーションについての詳細は、The Registerに掲載されているプラヴィーン・ヴァイディアナタンの洞察に満ちたインタビューをご覧ください。

AIの将来を形作るマイクロンのイノベーション

AI活用を支える技術におけるマイクロンの先駆的な取り組みは、最先端のイノベーションに支えられています。

  • 1γ(1ガンマ)DRAM:前世代と比較して、ウエハーあたりのビット密度を30%以上向上、最大20%の省電力化、さらに速度を15%改善しています (詳細はこちら...マイクロンの1γノードの技術)。
  • G9 NAND:業界最速となる3.6GB/秒のNAND I/Oを実現し、読み取り速度を最大99%、書き込みパフォーマンスを88%向上させました。これはデータ中心のAIワークロードに最適です (詳細はこちら...G9 NAND)。

これらの進歩は単なる技術的な節目ではなく、より高速で効率的、かつスケーラブルなAIシステムを構築するための基盤となります。

AIで重要な指標 — メモリとストレージが指標に与える影響

AIの最も興味深い側面の1つは、データセンター、クライアントデバイス、モバイルシステムなどの多様なプラットフォームに共通する複数のパフォーマンス指標の存在です。アプリケーションのユースケース、アーキテクチャー、ソフトウェアフレームワークが異なる場合でも、中心的な要素(コンピューティング、メモリ、ストレージ)はすべて、同様のシステムレベルのKPIで評価されます。

AI推論、特に大規模言語モデル(LLM)に関して重要となる指標には、次のようなものがあります。

  • TTFT(最初のトークンまでの時間) — システムが最初のトークンを生成し始めるまでの時間を示す指標。
  • 毎秒のトークン数 — スループットを測定する指標。
  • 1ワットあたりの毎秒のトークン数 — 電力効率を評価するための重要な指標。

これらの指標は、パフォーマンスとエネルギー効率において重要な役割を担い、メモリとストレージサブシステムの性能に大きく左右されます。

AI指標におけるストレージの役割

システムの観点では、ストレージのパフォーマンスは一般的に次の点で評価されます。

  • IOPS(入出力操作毎秒) - 特にデータセンターやクライアントSSD環境を測定する場合に使用されます。
  • 読み取り/書き込み速度 — UFS(ユニバーサルフラッシュストレージ)を使用するモバイルプラットフォームの測定において重要です。

アクセスパターン、チャンクサイズ、ロジカルブロックアドレッシング(LBA)サイズなど、その他の要因が加わると、さらに測定が複雑化します。しかし、これらのパラメーターがLLMの推論パフォーマンスに与える全体的な影響は、プラットフォームを問わず一貫しています。

マイクロンのストレージテクノロジーに関するイノベーションは、あらゆる分野でこうした要求に対応できるよう設計されており、ストレージがボトルネックとならずにパフォーマンスを向上させます。

拡大するメモリの役割

メモリについても、大きな変化が見られます。LPDDRのような、これまでモバイルデバイスやクライアントデバイスで使用されてきたテクノロジーが、現在ではデータセンター環境にも導入されつつあります。このような変化の背景には、高い処理能力が求められるAIワークロードに対応できる、電力効率に優れた高性能メモリの必要性が高まっていることがあります (詳細はこちら...電力を最大限に有効活用する:データセンターを変革する低消費電力メモリ)。

ランク、チャネル数、I/O幅、密度といった主要なメモリ構成パラメーターは、分野によって異なります。しかし目標は同じです。それは、エネルギー効率を確保しながら、最適な速度グレードでパフォーマンスを持続することです。

マイクロンの、DDR、LPDDR、GDDR、HBMを含むメモリソリューションは、埋め込み、プリフィル、デコーディング、ポストプロセスに至るまで、AI推論パイプライン全体をサポートするように設計されています(詳細はこちら...100万トークンのコンテキスト:良いところ、悪いところ、醜いところ)。このため、メモリがコンピューティングおよびストレージとシームレスに連携し、ボトルネックを回避してスループットを最大化できるようになります。

つまり、AIをハイパースケールデータセンターに導入する場合でも、モバイルデバイスに導入する場合でも、同じ基本的な指標を適用できるということです。そして、マイクロンのメモリとストレージのテクノロジーは、これらの指標が最適化されるように構築されているため、より高速で効率的、かつスケーラブルなAIシステムを実現できます。

考察のヒント:AIパフォーマンス指標さらに詳しく

AIパフォーマンスがプラットフォーム間でどのように測定されるのか、そしてメモリとストレージが重要な役割をどのように果たすのかについて詳しくは、以下の記事をご覧ください。

NVIDIA NIM LLMのベンチマーク — データセンター環境での推論指標を詳しく解説します。

モバイルプラットフォーム上での大規模言語モデルパフォーマンスのベンチマーキング — モバイルデバイス上での大規模言語モデルパフォーマンスの詳細な評価です。

推論 = IOPS:AIの次のフロンティアがストレージで動く理由 — 特にIOPSなどのストレージパフォーマンスがAIワークロードにとって重要性を増していることに関するマイクロンの見解。

これらのリソースからは、AIシステムパフォーマンスの進化しつつある環境を理解するうえで重要な背景情報と技術的情報を学べます。

マイクロンのAI使用事例:AIを活用してAIを構築

マイクロンはAIを実現するだけでなく、AIを活用して優れた製品を開発しています。スマートマニュファクチャリングから歩留まりアナリティクスに至るまで、AIはマイクロンの事業全体に組み込まれ、活用されています。例えば、

  • 画像と音声の分析
  • プロセスの自動化
  • エンジニアリングワークフロー
  • 事業運営

このように社内でAIを導入したことで、マイクロン全体の品質、効率、そしてイノベーションが強化されました。

マイクロンインドの事例:AIの具体事例

マイクロンインドの、コアデータセンタービジネスユニット(CDBU)の一部門であるセンターオブテクニカルエクセレンス(CoTE)では、AI統合の力が発揮されています。このセンターは、ほぼすべての主要部門が同じ場所に集約され、垂直統合されており、新技術を商業製品へと変換する上で極めて重要な役割を担っています。要件の定義から顧客のサポートに至るまで、AIは品質や機密性を損なうことなく、プロセスの合理化、コラボレーションの向上、イノベーションの加速を可能にしています。

最後に:AIの中核にメモリの存在

私の視点がコンピューティングからメモリに移ったことで、考え方が大きく変わりました。マイクロンに入社して私が気づいたことは、メモリとストレージは単にAIの補助的な要素ではなく、AI構築の基盤そのものだということでした。AIがさらに進化を遂げる中、マイクロンのイノベーションへの取り組みは、時代の流れに追随するだけでなく、未来を切り拓く原動力となっています。

モバイル&クライアント、システムおよびワークロードエンジニアリング担当ディレクター

Pradeep Kumar Jilagam

プラディープ・クマール・ジラガムは、マイクロンのモバイル&クライアントビジネスユニットにおいて、システムおよびワークロードエンジニアリングを統括するディレクターを務めています。マイクロンの次世代メモリおよびストレージソリューション(主にエッジAI向け)の開発を主導し、製品の定義、エコシステムの構築、製品の市場投入から、ソートリーダーシップに至るまで、幅広い分野で貢献しています。システムアーキテクチャーを専門とし、コンピューティング(CPU、GPU、NPU)、メモリ、ストレージにまたがるマルチメディアおよびAIソリューションについて深い知見を有しています。マイクロンに入社する前は、クアルコムにてAndroid、IoT、XR、AIMLの分野に携わっていました。