デザインツール
AI

未来型AI搭載PCのためのホストサポートを備えたストレージの最適化

プラサド・アルリ | 2024年10月

コンピューティングの分野が急速に進化する中、AI搭載PCにより、私たちとテクノロジーの関わり方が大きく変化しつつあります。そのようなインテリジェントシステムは、単に処理速度の向上やよりスマートなアルゴリズムを実現するだけではなく、データ管理や保存方法も根本的に変えようとしています。

AI搭載PCでは、データ配置の重要性はこれまで以上に増しています。このようなシステムに搭載された高度なストレージ機能は、データを効率的に保存するだけでなく、パフォーマンスとセキュリティが向上するようアクセスし、活用します。AI駆動型コンピューティングの時代に突入する中で、ユーザーデータをどこにどのように配置するかを理解することが、こうした最先端の機器が持つ能力を最大限に引き出すうえできわめて重要になります。PCデータの保存に最も多く使用されているSSDでは、その開発において、AIアプリケーションを実行しながらユーザーエクスペリエンスを向上するという大きなチャンスがあります。

現時点でSSDには、ユーザーまたはシステムにとって最も重要なデータがどれかを識別する能力がありません。今後、AIデータに優先順位をつける必要が出てくることが明らかであり、そのような能力の不足は著しい制約となります。AIを重視する理由は、リアルタイム処理や意思決定を伴うことが増え、関連性の最も高いデータへの迅速なアクセスが必要になるからです。LRU(最近では使用頻度が最も低い)データ構造などの現在のアーキテクチャーで行われているように、すべてのデータを同じように扱うと、効率とパフォーマンスの低下につながるおそれがあります。

オンデバイスAIの重要性が高まる中、いちだんと優先する必要があるのはAIやその他のデータ集約型アプリケーションで必要とされるデータです。これを実現するには、SSDはホストマーキングからどのデータ(AIなど)が最も重要であるかという追加情報(ホストアシストと呼ばれる)を得る必要があります。SSDは、その代わりに、最もアクセス時間の短い低レイテンシーキャッシュにデータを配置することができます。たとえば、マイクロンが行った内部テストでは、ホストアシスト機能を使用することで、モデルの読み込み時間が最大80%短縮することが分かっています。オンデバイスAIは、ストレージに保存された多数の小規模モデルを使って実行されますが、このAIは必要に応じて特定のモデルを読み込む必要があります。(この問題については、前回のブログでも取り上げています。パソコンへのAI導入がもたらす今後の展開:| Micron Technology Incをご覧ください。)

モデルの読み込み時間は、SSDとホストアシストがどのような改善を達成できるかを決定するうえで重要です。ホストからは、さまざまな方法で支援を受けることができます。マイクロンはMicrosoftと連携し、どのデータが最も重要かをSSDが理解できるよう、いくつかの改善を行いました。こうしたいくつかのアプローチにより、SSDの信頼性も向上します。

  • タイムスタンプ機能により、SSDに世界時間の基準点が備わりました。また、オペレーティングシステムにより、実時間についていっそう多くの実例がSSDに提供されます。これにより、SSDはデータの経過年数をいちだんと正確に追跡できるようになり、信頼性が向上します。データが生成された正確な時期を把握することで、SSDはどのデータを優先し、どのデータを破棄すべきか、的確に判断することができます。タイムスタンプ機能により、SSDは内部キャッシュをより効率的に管理し、最近アクセスしたデータをいつでもすぐに利用し、レイテンシーを短縮して応答性を向上することができます。また、タイムスタンプにより、古いデータや未使用データを特定でき、ガベージコレクション時に削除対象が絞り込みやすくなります。このプロセスのおかげで、容量が確保され、書き込み速度を最適に保つことができます。さらに、タイムスタンプを使用すると、書き込みサイクルをドライブ全体に均等に分散することができるため、SSDの寿命が延び、安定したパフォーマンスを保つことができます。

  • ホストメモリバッファ(HMB)機能により、SSDは必要に応じてシステムDRAMの一部を単独で利用することができます。HMBを増やすことで、SSDはデータ用・データプロパティ用のバッファ領域をさらに確保できるようになります。これにより、FTL(フラッシュ変換レイヤー)テーブルが拡大し、データマッピングはいちだんと効率的になり、SSDのオーバーヘッドを削減できます。バッファが拡大すると、SSDは重要なデータをより効果的にキャッシュすることができるため、アクセス時間の短縮とパフォーマンスの向上が見込めます。システムのDRAMをキャッシュとして活用することで、HMBのデータへのアクセス時間は大幅に短縮されます。このため、読み取りと書き込みが高速化します。さらに、データ転送はこれまでより効率的になり、システムパフォーマンスが向上します。バッファ領域はシステムメモリ内に作成されていることから、このパフォーマンスの向上は、コストや電力を追加することなく実現できます。
ホストPCと連携するホストメモリバッファ
  • ホストシステムは、SSDへの読み取り・書き込みコマンドに追加のメタデータを送信することができます。このメタデータはデータヒントと呼ばれており、データの活用方法(例:頻繁に読み込まれるなど)に関するインサイトをSSDに提供します。使用パターンを理解することで、SSDはこれらのヒントをもとにデータを優先し、最速のアクセスを保つことができます。メタデータには、予想最長寿命やアクセスパターンなどのヒントを含めることもできます。これらのヒントにより、SSDはデータ配置をより効果的に管理し、かつ書き込み増幅を緩和できることから、全体的な性能が向上します。
Windows OSにデータヒントが流れ込む


これらの機能強化は、2024年8月のFMSカンファレンスでMicrosoftのスコット・リー氏が発表した通り、今後リリース予定のWindows OSに統合される予定です。マイクロンはMicrosoftと連携を通じて、将来に向けた最適なSSDパフォーマンスの実現に取り組んでいます。

VP and GM for Client Storage at SBU

Prasad Alluri

Prasad Alluri is the vice president and general manager for Client Storage in the Storage Business Unit. Prior, he was our vice president of Corporate Strategy & Incubations. He has worked for Micron and Intel, where he held various positions in product development, product planning and strategy. Prasad obtained his bachelor’s from the Indian Institute of Technology (Bombay), a Ph.D. from Arizona State University, and an MBA from Wharton School of Business. Outside work, Prasad enjoys playing poker and hiking.

Prasad Alluri