IDCは、2021年から2027年にかけて、デジタルツインとしてモデル化された新しい物理資産とプロセスの数が5%から60%増加すると予測しています。資産行動の重要な要素をデジタル化するという概念はまったく新しいものではありませんが、テクノロジーの様々な側面の能力、つまり、精密なセンシングからリアルタイムのコンピューティング、大量のデータからのインサイトの抽出の改善までの能力は、それらがすべて連携すると、機械と運用システムをさらに最適化し、規模拡大と市場投入までの時間の加速が促されます。また、AI/ML(人工知能/機械学習)モデルを有効にすることで、プロセス効率の向上、製品エラーの削減、優れた総合設備効率(OEE)の実現が促進されます。
これらの要件の課題と複雑さを理解すると、デジタルツインを実現するためにメモリとストレージがどれほど重要であるかがわかります。
正しいデータを抽出することが最初の課題
デジタルツインは、様々なモノの物理的特性を抽出したセンシングデータですが、それだけではありません。外部サブシステムと内部サブシステム間の相互作用に対してモデル化する能力もあります。たとえば、発電機の振動の高調波プロファイルを検出することで、その画像がモーター、ベアリング、ベルトの物理的性質とどのように相関し、その相互作用に影響を与えるかについてのインサイトを得ることができます。本当に機械の「デジタルツイン」を作りたいのであれば、相互依存性を認識せずにセンサーを設置しても、正確な「ツイン」は得られません。
ブラウンフィールドでの導入は、複雑な作業になります。すでに稼働している機械に新しいセンサーを追加するのが容易なことではないことを考えてみてください。実際、最初の概念実証では、センサーからクラウドへのデータ変換に対応する最小限のインターフェースを備えたDIYや組み込みボードを追加しています。接続部分を追加するのと、実際にモデリングを行って、動的データを保存してトレーニング済みのモデルと比較できるようにするのとでは、まったく異なります。さらに、このアプローチは、モデル化するシステムの種類が数十から数百に及ぶことを考えると、最もスケーラブルなソリューションではありません。
コンピューティングは進化し続ける
CNN(畳み込みニューラル ネットワーク)アクセラレーターを組み込んだ新しいプロセッサーアーキテクチャーは、推論コンピューティングの高速化を実現するための優れた第一歩です。このデバイスは、アナログ信号を取り込むだけでなく、データのノイズを処理し、デバイス内でフィルタリングし、モデルに関連する値を許容するように設定されています。これらは、GFLOPS(ギガフロップス/秒)範囲の並列処理が20 TOPS(テラ/秒)よりもやや少ないインテリジェントエンドポイント向けに最適化されています。
低コストで低消費電力のGPUは重要です。そのようなGPUは、本質的に俊敏性の高いハードウェアベースのMLコンピューティングエンジンを提供し、より高いOPS(1秒あたりの処理数)を実現するからです。業界では、100 TOPSよりも少ないエッジ目的のGPU、または200以上のTOPSのインフラストラクチャークラスのGPUの実装が行われています。
低消費電力DRAMメモリはAIアクセラレーテッドソリューションズに最適
ご想像のとおり、アーキテクチャーによっては、アクセラレーターを搭載したマルチコア汎用CPUには、x16、x32ビットのメモリ幅が必要になることがあります。また、ハイエンドGPUには、最大x256ビット幅のIOが必要になることがあります。
直接関係する懸念は、計算のためにギガバイト単位のデータを外部メモリとの間で移動する場合、より高いバス幅のメモリのパフォーマンスが必要になることです。以下の表は、INT 8 TOPSの要件に基づくメモリーインターフェースのパフォーマンス要件を示しています。
メモリは、新しい標準に合わせて進化することで、AIアクセラレーテッドソリューションに追いつこうとしています。たとえば、LPDDR4/x(低電力DDR4 DRAM)およびLPDDR5/x(低電力DDR5 DRAM)ソリューションは、従来のテクノロジーに比べてパフォーマンスが大幅に改善しています。
LPDDR4は最大4.2 Gbps で動作し、最大 x64 バス幅に対応します。LPDDR5xはLPDDR4と比較してパフォーマンスが50%向上し、パフォーマンスが最大8.5Gbpsに倍増します。また、LPDDR5はLPDDR4xよりも20%優れた電力効率を実現します。これらは、全体的なパフォーマンスを改善し、最新のプロセッサーテクノロジーに匹敵する重要な開発です。
複雑な機械学習に対応する組み込み型ストレージ
コンピューティングリソースが、処理ユニットの生のTOPまたはメモリアーキテクチャ-の帯域幅によって制限されると考えるだけでは不十分です。機械学習モデルがより洗練されるにつれて、モデルのパラメーター数も指数関数的に2拡大しています。
機械学習モデルとデータセットは、より良いモデル効率を得るために拡張されるため、より高性能な組み込みストレージも必要になります。3.2GB/sのeMMC 5.1などの典型的なマネージドNANDソリューションは、コードの起動だけでなく、リモートデータストレージにも最適です。UFSインターフェースのような新しいテクノロジーでは、より複雑なモデルに対応するために7x23.2Gb/sを実行することが可能です。
これらの組み込みストレージテクノロジーは、機械学習リソースチェーンの一部でもあります。
適切なメモリを使ってデジタルツインを可能にする
業界では、エッジエンドポイントとエッジデバイスによってテラバイト単位のデータが生成されると認識しています。忠実度が高いからだけではなく、データを取り込む必要性がデジタルモデルの改善に役立つからです。デジタルツインにはまさにそれが必要なのです。
さらに、コードはデータストリームの管理だけでなく、エッジコンピューティングプラットフォームのインフラストラクチャーの拡張にも対応し、(サービスとしての)XaaSビジネスモデルを追加する必要があります。
デジタルツイン技術は大きな可能性を秘めています。しかし、顔の「鼻」や「目」だけをモデリングするような「ツイン」を作成しても、顔全体の画像がなければ、これが自分のツインであるかどうかを判断するのは困難です。したがって、次にデジタルツインについて話すときには、何を監視するか、また、どれだけのコンピューターメモリとデータストレージが必要になるかなど、考慮すべき点がたくさんあります。産業用メモリソリューションのリーダーであるマイクロンは、高速AIコンピューティング向けの1-alphaテクノロジーベースのLPDDR4/xとLPDDR5/xソリューション、eMMCとUFS対応ストレージソリューションに組み込まれた176層NANDテクノロジーなど、幅広い組み込みメモリを提供しています。これらのメモリとストレージテクノロジーは、必要な計算要件を満たすための鍵となります。
1. IDC FutureScape, 2021
2. 『機械学習におけるパラメーター数』(Toward Data Science)、2021年