このブログは、IDCのゲスト著者がmicron.comに掲載するために執筆しました
これまでデータセンターのシステムアーキテクチャーは、コアデータセンター内のデータスループットを向上させることで、人工知能(AI)によるディスラプションに対応してきました。処理、メモリ、ストレージ、ネットワークの各テクノロジーは、データの所在に焦点を合わせ、そのデータが必要とされる場所に反応的に、かつできるだけ迅速に移動させようとしてきました*。しかし、データセンターにおけるAIの真骨頂となるのは、次にデータが必要とされる場所の予測でしょう。
今後のデータセンターの所在地は、集中型のコアデータセンター(サーバーを満載したサッカー場規模の巨大倉庫)と、ユーザーの近くに戦略的に配置したエッジデータセンターのハイブリッドモデルになります。データがユーザーに近いほど、移動は高速になり、それに要するエネルギーも少なくて済みます。そのため、AIはパターンを特定し、データが必要とされる場所を予測して、反応的にではなく、先回りする形でコアデータセンターとエッジデータセンター間でデータを移動させるでしょう。予測的に先回りして、データが消費される場所まで移動させることで、企業は分散コンピューティングやヘテロジニアスコンピューティングを最大限に活用できるようになります。メリットとしては、分析のためのデータアクセスや統合の高速化、同期したリソースの適切な割り当て、電力コストの削減などが挙げられます。
*データポイント:AI対応ITインフラの半導体やストレージメカニズムの売上は、2022年から2027年にかけて年平均成長率(CAGR)36%で成長し、2027年には1,900億ドル超に達する見込みです。1
新しいデータセンターアーキテクチャーのメリット
コンポーネントレベルやシステムレベルの新しいテクノロジーのおかげで、システム設計者がコアインフラやエッジインフラのシステムアーキテクチャーを見直せるようになり、AIが予測して同期したデータの処理、ストレージ、移動が可能になります。また、そうした新しいテクノロジーを使うことで、コアまたはエッジのどこにテクノロジーを導入するかに応じて、これまでよりもアプリケーションを特化できます。たとえば、以下のようなテクノロジーです。
- HBM3E — 高帯域幅メモリ(HBM)は、DRAMダイを積層し、スルーシリコンビア(TSV)と呼ばれる配線で接続するためのコンピューターメモリインターフェースです。HBM構造は、従来の構造よりも小さなスペースに多くのメモリチップを詰め込むことができるため、メモリとプロセッサー間のデータ転送距離の短縮になります。
HBMの最新世代がHBM3Eです。1,024ビットのデータパスを使用し、毎秒9.6ギガビット(GB/秒)で動作するHBM3Eは、1229GB/秒の帯域幅を実現します。HBM3Eを使うと、1,024ビット幅のデータチャネルを16個の64ビットチャネルまたは32個の32ビットチャネルに分割でき、データセンターのシステムデザイナーが利用できるメモリチャネル数の拡大になります。サーバーのGPUなど、より高性能で大容量の専用メモリに使われ、さまざまなワークロードのニーズに合わせて拡張できるメモリを実現します。HBM3Eは、2024年以降にマイクロンやその他のメーカーが製造予定です。高帯域幅メモリ(HBM)はすでに、サーバーでAI処理に使われる専用メモリの中でも、最も一般的なものになっています。
- Compute Express LinkTM(CXL)- このテクノロジーは、リソースを共有する目的で、マイクロプロセッサーとメモリ、マイクロプロセッサーとアクセラレーター、メモリ同士など、別個の機能を持つチップ間のプロトコルを標準化します。CXLは、PCI Express®(PCIe)の物理的および電気的インターフェースの上に構築されており、入出力(I/O)、キャッシュコヒーレンシー、システムメモリアクセス用のプロトコルなどを搭載しています。CXLのシリアル通信とプーリング機能を利用すると、大容量のストレージを実装する際、メモリが一般的なDIMMメモリのパフォーマンスとソケットパッケージングの制限を克服できます。こうした制限がなくなると、データセンターのシステムデザイナーは、ターゲットとするワークロードのパフォーマンスニーズに対してメモリがボトルネックになるという心配をしなくて済むようになっていきます。最初は2019年にバージョン1.0でリリースされたCXL製品は、2022年にバージョン1.1が市場に投入され、2023年後半にバージョン3.1が発表されました。マイクロンはCXLコンソーシアムのメンバーです。
- Universal Chiplet Interconnect ExpressTM(UCIe) — UCIeテクノロジーは、パッケージ内の(チップレットと呼ばれる)シリコンダイ間で相互接続とプロトコルを標準化します。テクノロジーベンダーがひとつのパッケージ内で機能を組み合わせて使用できるようにするUCIeは、特定のワークロード向けにカスタマイズ可能なチップを製造できる、相互利用可能なマルチベンダーエコシステムを実現します。UCIe規格は、マイクロンを含むテクノロジーベンダーのコンソーシアムによって2022年に発表されました。
HBM3E、CXL、UCIeテクノロジーによって同期したデータ処理、データストレージ、データ移動機能を利用することで、システムアーキテクトは、想定されるワークロードのローカルニーズにサーバー設計を対応させることができます。メモリ、ストレージ、コンピューティングネットワークリソースの共通プールがあるということは、各リソースに他のすべてのリソースとの整合性があり、他のリソースとの相互アクセスが可能であることを意味します。固定された構成要素から柔軟なオンデマンドリソースプールに変わることで、静的コンピューターアーキテクチャーが「コンポーザブル」コンピューティングアーキテクチャーへの移行するのです。コンポーザブルコンピューティングは、AIが予測するデータ最適化の基本です。
データセンターの未来を拓く
データセンターは、データやデータタイプの増加、ワークロードの多様化、ヘテロジニアスコンピューティング、分散コンピューティング、AIなど、IT市場の主要トレンドの中心的存在です。業界がそれらのトレンドに対応するために不可欠なのがコンポーザブルコンピューティングであり、システムアーキテクチャーに革命をもたらす準備を整えるものでもあります。UCIe、HBM3E、CXLはシステムアーキテクチャーが根本的に変化することの象徴であり、IDCの予測では、2020年代の終わりまでに主流のデータセンターサーバーに統合されます。
コンポーザブルコンピューティングを取り入れることで、各タスクが必要なリソースを必要なときに利用できるようになります。たとえば、プロセッサーやアクセラレーターのコンピューティング能力、メインメモリや専用メモリのリアルタイム応答、ネットワークの遅延を最小限に抑えるシステム内やシステム間の通信といったリソースです。大規模言語モデル(LLM)にとって、コンポーザブルインフラとは、処理能力の動的なスケールアップ、リソース利用の最適化、トレーニング速度の加速を意味します。図1は、コンポーザブルコンピューティングが、特定のワークロードのニーズを満たすために、データの取得、移動、保存、整理、利用方法を拡張するAIインフラシステムを実現する仕組みを表しています。
図1:コンポーザブルインフラとは、専用リソースを使用する従来のシステムから移行して、1つの統一されたプール(レイク)やデータから引き出すリソース(ストレージI/Oなど)をプールして共有するAIシステムになることを意味する。(出典:マイクロン)
AIシステムをモジュール式で再利用可能なコンポーネントに分解することで、開発者は、AIモデルが予測可能なシステム環境に存在すると仮定するための、(システムやデータセンター間のテクノロジー標準によって実装した)構成可能性を利用できます。そう仮定することで今度は、事前にトレーニング済みのモデル、アルゴリズム、データパイプラインを組み合わせて使用できるようになります。その結果、このアプローチは、多様なユースケースに対応し、データが次に必要とされる場所を予測するために最適化されたAIモデルの迅速な実装につながります。
1 「ITインフラにおけるAI半導体とストレージコンポーネントの展望」IDC # US51851524、2024年2月
本記事で述べられている意見は、寄稿者個人の見解であり、Micron Technology, Inc.、同子会社、関連会社のものではありません。すべての情報は「現状有姿」の状態で提供され、マイクロンおよび著者は記載されている情報に関していかなる表明または保証も行いません。マイクロン製品は、販売された製品、該当するデータシートまたは仕様に記載された事項に従って保証されます。情報、製品、仕様は予告なく変更されることがあります。Micron、Micronのロゴは、Micron Technology, Inc.の商標または登録商標です。サードパーティの名称または商標は、それぞれの当事者によって所有されており、本記事での言及は、これらの当事者に対する推奨、後援、提携を意味するものではありません。