デザインツール
アプリケーション

AIと機械学習には高性能なストレージが必要、パート3

マイクロン・テクノロジー | 2019年3月

「人工知能と機械学習には高性能ストレージが必要」シリーズ、パート3:実行

こんにちは、またお会いしましたね!人工知能に関する当シリーズの今回の記事では、AI実装における3番目にして最終、最大のフェーズである「実行」に注目したいと思います(AIプロセス全体は、以下の図を参照してください)。ご記憶の通り、過去2回のブログではAIプロセスの取り込みと変換、およびトレーニングフェーズについて検証しました。すでにお話ししたように、SSDおよびメモリの形式でフラッシュを統合することにより、これら2つのフェーズの全体的な性能に、非常に目覚ましい影響を与えられる可能性があります。

取り込み/変換フェーズで多数のソースから生データをAIインフラストラクチャに取り込み、モデリングに適した、標準化された有効なフォーマットに変換する処理が速ければ速いほど、トレーニングフェーズへの移行が速くなります。トレーニングフェーズは、非常にCPU中心型(より具体的に言うとGPU中心型)ですが、ソリューションにフラッシュとメモリを追加すると、影響が大きいことをご説明しました。詳しくは、私の同僚であるウェス・バスクのブログで、メモリとストレージがAIに及ぼす効果についてお読みください。

AI 1

AIプロセスの実行フェーズは、まさに正念場です。AIの有益なメリットが実感されるのは、このフェーズです。実行フェーズでは、トレーニング済みの精緻化されたAIモデルを、さまざまなターゲットエッジデバイス(カメラ、センサーなど)に導入し、意思決定に使用する必要があります。AIの世界では、これを「推論」とも呼びます。推論を実行しながら、その精度を継続的に評価する必要もあるケースが少なくありません。このトレンド分析またはフィードバック分析は、通常はエッジまたはIoTデバイスでは実行せず、デバイスで取得したデータと推論結果を用いるアナリティクスプロセスの一環として実行します。

AI 2

使用シナリオの幅広さは実質的に無限であり、主としてリアルタイム分析と意思決定に重点を置くシナリオと、リアルタイムの意思決定とリアルタイム後の分析の両方を必要とするシナリオの、どちらかのユースケースになるのが一般的です。ユースケースに応じて、メモリおよびストレージの比率または依存度が異なります。以下に、現実世界における具体的なユースケースを2つ示します。

リアルタイム分析

おそらく私たちにとってなじみ深いユースケースです。携帯電話のカメラを使って地元の企業を識別したり、携帯電話のカメラを寸法測定デバイスとして利用したりします(たとえば「この長椅子の長さは?」などの質問への答えを出します)。この推論は使用する電話機に依存し、完全にローカルデバイス上で実行されます。これらの例では、推論が完了した後は電話機で情報を保持する必要はありません。このシナリオは純粋にリアルタイムです。このユースケースは、ストレージよりもメモリに大きく依存します。スマートフォンがカメラのデータを処理するからです。このユースケースでは、長期(または中期)のストレージの必要性はまったくありません。推論が完了すれば、データ(画像)は不要になります。

このような小型のリモート/モバイルデバイスで推論を実行する場合、焦点となるのは、高性能と低消費電力のバランスの取れたメモリです。マイクロンは、モバイル、車載、カスタムエッジデバイスに適した多様なフォームファクタの低電力DRAMソリューションを提供しています。

リアルタイム分析と推論後アナリティクス

多くのビジネス環境では、AI推論エンジンが期待を満たしているかどうかを確認するため、推論プロセスを絶えず再分析する必要があります。持続的なプロセス改善のためのフィードバックループです。このようなユースケースでは、フラッシュが非常に重要な役割を果たします。この分析を速く実行すればするほど、リアルタイム推論を速く改善できます。さらに、オンデバイスでの短期の保持から、オフデバイスのビッグデータリポジトリによる長期の保持まで、いくつかの要因によって必要なストレージの量およびその場所が変わってきます。そして最後に、データの保持期間も、導入するストレージソリューションの決定に影響します。

車載用ユースケースの多くがそうであるように、規制要件を満たすためにオンデバイスストレージが必要な場合があります。自動運転車は膨大な量のリアルタイム推論を実行しますが、衝突が起こった場合に米国運輸省道路交通安全局(NHTSA)などの機関が分析できるようにするため、さまざまなセンサー(カメラ、エンジン性能データなど)からのデータをすべて一定期間にわたって保持する必要もあります。実際、2020年には、一般的な車両に3億行以上のコードと1TB(テラバイト)以上のストレージが含まれるようになる見通しです。

AI 3

状況によっては、広範囲に及ぶ後処理アナリティクスのため、より大容量のビッグデータリポジトリへのデータ転送に対応する量のオンデバイスストレージしか必要ないケースもあります。これはマイクロンにとって非常になじみ深いユースケースです。これまでにもご紹介したことがありますが、マイクロンではウエハー分析プロセス(AI推論)を利用して、製造プロセスの継続的な改善を行っています。昨年のData Works Summitの席上、これについてご説明したように、推論後のアナリティクスにはストレージが重要であるだけでなく、ストレージの種類がアナリティクスのパフォーマンスに大きく影響します。この場合、HDD上の既存のレガシービッグデータ環境に高性能なNVMe SSDを1つ追加するだけでも、大きく改善される可能性があります。

マイクロンのインフラストラクチャによるインテリジェンスの加速

マイクロンは、非常に多様なアプリケーションワークロードに適したSSDに加え、ネットワークエッジおよびIoT分野をターゲットとする産業グレードmicroSDカードを提供しています。

マイクロンでは、AI/MLワークロードに使用するストレージとメモリについて継続的に評価を行っています。素晴らしい結果をマイクロンブログで次々とご紹介しますので、忘れずにチェックしてください。

上記およびその他のマイクロン製品が、お客様の次のAI/MLプロジェクトの成功にどのように貢献するかについて、詳しくはmicron.com/AIをご覧ください。

Linkedinでマイクロンとつながり、最新情報をチェックしましょう。