Magnum IO GPUDirect Storageとマイクロンの連携がもたらす、AIとMLへの産業破壊的イノベーション
個人のキャリアには多くの節目があります。例えば、勤続30年といった永年勤続の節目もあるでしょう。あるいは、新たな責任やプロジェクトを担当すべく職務を転換することや、新たなチャンスを求めて会社を変えることもあるかもしれません。
時には、業界を根本的に変えるようなテクノロジーに携わることでキャリアが確立されることもあれば、そのテクノロジーの初期段階から携わることでキャリアが決まってしまうことも稀にあります。私にとって最近のキャリアは、その両方に影響を受けています。私は、業界を根底から覆すNVIDIAの革新的技術、Magnum IO GPUDirect Storageをサポートする機会に恵まれました。この製品は現在バージョン1.0に到達しています。これはGPUとストレージ間のダイレクトパスを可能にする技術で、より高速なデータパスとCPU負荷の低減を実現します。
産業破壊的イノベーションついて興味深いのは、それを市場に投入するまでには膨大な努力と多大な時間がかかるということです。これまでのメモを振り返ってみると、GPUDirect Storageに関する私たちとNVIDIAとの最初の話し合いは2018年11月7日、およそ2年半前に遡ります。私はNVIDIAの本社で、NVIDIAのデビッド・リード氏、サンディープ・ジョシ氏、CJ・ニューバーン氏、そしてマイクロンのカリー・マンスという、これらの技術に関連する、業界で有数の頭脳の持ち主たちと同席しました。NVIDIAはこの技術についての彼らのビジョンを語り、一緒に参加することに興味はないかと尋ねてきました。このブログから推測できるように、私たちはすぐにそのビジョンを受け入れ、将来実用化が期待されるこの新しいテクノロジーのサポートを引き受けました。
なぜでしょうか? それは、この技術が人工知能(AI)、機械学習(ML)、ディープラーニング、高性能コンピューティング(HPC)におけるGPUを多用するワークロードに対して、より高性能なストレージをもたらすことが当初より明らかだったからです。このようなワークロードは膨大なデータセットを伴うことが多く、GPUメモリとストレージ間のダイレクトメモリアクセス(DMA)によって、CPUの負荷を軽減しながらIOレイテンシーを低減することができます。その結果、マイクロンの主要な取り組みであるインサイトに要する時間の大幅な短縮が実現し、イノベーターは例えば、ワクチンの迅速な製造、より燃料効率の高い輸送手段の発見、世界の遠隔地に向けた効率的な食料配送の開発などが可能になります。
この革新的な取り組みの中で、マイクロンはこの技術の有効性を証明するコラボレーションについて詳しく説明しました。以下に、興味深いハイライトをいくつかご紹介します。
- 2019年3月:今日と明日のプラットフォームでGPU I/Oを実現
- 2019年8月:GPUDirect Storage:ストレージとGPUメモリ間のダイレクトパス
- 2020年7月:NVIDIA GPUDirect StorageでAI/MLワークロード向けのマイクロンSSDへの投資を最大化する
- 2020年11月:AIワークロードにおけるストレージ効果を分析する
- 2021年2月:AIストレージの課題を克服するアーキテクチャー
- 2021年3月:Barton Fiske & Wes Vaske、AIデータのボトルネックをNVIDIA® GPUDirect Storageで克服する
本日、NVIDIAはMagnum IO GPUDirect Storageバージョン1.0を発表しました!振り返ってみると、2019年3月にNVIDIAがブログで発表する前に行われたミーティングのメモには、NVIDIAからサポートの打診があったことが書かれています。私たちの答えは「マイクロンはチームの一員になれることを光栄に思います。」という、これ以上ないほど力強いものでした。この業界を大きく変える技術を開発し、マイクロンをはじめとする幅広いエコシステムとの提携を実現したNVIDIA、おめでとうございます。マイクロンは、お客様がデータから価値あるインサイトを抽出する時間の短縮に貢献できることを嬉しく思います。