インテリジェンス・オブ・ザ・エッジ

あなたのスマホに人工知能?より高速のストレージが必要に。

片手に持つことのできる知能とはどれくらいでしょうか?かなり多く、というのが答えです。

2017年は、人工知能が遂に私たちのスマホにまで及んだ年でした。それは、スマホを通してつなぐクラウドだけでなく、スマホ自体についても同様です。

デバイス搭載のAIエンジンを考慮し、これらの携帯電話は、センサーから効率的にデータを取り入れ、消化し、デバイス上で保存・計算が行えるよう設計されています。顔認識、活動予測、強化されたデータ暗号化といったタスクを実行するこれらの携帯電話は、追加容量や計算能力と、サイズ制限、コスト効率、バッテリ電源とのバランスを保つ必要があります。これらの携帯電話に埋め込まれるAIチップは、ローカルデータから迅速かつ正確な判断を行わなければならないため、より高速で革新的なシステムメモリと容量が必要となります。

AIスマホの実際の使用事例

新しいユーザー体験は、最新のスマホで利用できる、画像、聴覚、音声処理能力の向上に既に現れています。新体験の新たな波は、言語処理、人間の活動予測、強化されたデータ暗号化を始めとする、スマホ搭載AIの新しい使用事例に対応するアプリとなるでしょう。

ユーザー認証用の顔認識が一般的になるつれ、イノベーターたちは、デバイス搭載AIを使ってユーザー認証の複雑化、つまり、より安全で便利なものへと進化させていきます。例えば、以前は、写真を使って顔認識ができていました。今では、3D奥行きセンサーと赤外線カメラを使うことで、スマホのユーザー認証はより安全で速いものとなっています。

デバイス搭載AIによる自然な言語翻訳により、ほとんどのスマホに既に搭載されている音声認識機能が向上できます。さらには、ローカル分析や電話やチャットの会話処理により、意図予測を使ってスマホはさらに反応が早くなります。人の行動が予測され、スマートアシスタントが次の行動や購入を推奨するのです。未来のスマホアプリでは、間違いなく、購入者支援機能がクラウドベースのボットからスマホへと移行し、より速く安全になるでしょう。

クラウドベースAIをデバイス搭載AIと統合することで、利用事例の幅はさらに広がります。例えば、カリフォルニア大学バークレー校には、MyShakeという地震警告アプリがあり、携帯電話に搭載されている加速度計センサー(携帯電話を横向きにした際に画面の向きを調整するもの)とGPSを利用して現地でどの程度の揺れが発生しているのかが計測されるようになっています。付近にいる他のMyShakeユーザーからの報告を集めて、クラウド上で統合分析を行うことで、このアプリは、個人の地震計としても、早期警報システムとしても機能するようになっています。

スマホが学習機械に

ローカル、デバイス搭載AIへの移行を促しているのは、厳密にはAIというよりも機械学習の、新しい特殊AI処理チップです。機械学習は、AIのサブセットです。異なる種類のデータに反応し最終的には繰り返し可能なパターンを作成することで、マニュアルでのプログラミング不要で自動的に、時間と共に学習することができるようにする技術です。ニューラルネットワークシステムは、これらの機械学習アプリがデータを分類するのを助け、コンピュータがデータをより速く分類できるようにします。2017年、エンジニアたちは、「スマート」あるいはAI支援タスクの性能と効率を上げ、コスト・出力・サイズ効率を高くするシステムオンチップ(SoC)へ新しいAIコンポーネントを追加する方法を発見しました。

AIは携帯電話のサイズと出力の課題を加速する

スマホのコンポーネントのうち、CPU/GPU、画面、メモリが最も電力を消費します。それに加えて、今度は、これらの新しいAIエンジン向けに所要電力が増します。それを支えるため、画素数がより豊富でメモリも十分なものへの消費者需要により負荷は増し、バッテリ寿命は今後も製造業者にとって主な懸念となっています。

消費者向けの5Gネットワーク・サービスは、今年後半にも限定都市で提供開始される見込みです。処理能力が現在の4Gネットワークの50倍も速くなり、さらに待機時間は4Gよりも少なくとも5倍改善された、いつどこでも利用可能な超高速無線接続のこの未来は、マルチメディアや動画サービスにおいて信じられないような可能性を解き放つでしょう。しかし、出力あるいは実装面積を増やすことなく、この速度とストレージの条件についていくため、モバイル機器には、もっと洗練されたメモリサブシステムが必要になります。

AI in Mobile

専用AIエンジンには処理が必要

ローカルのAI処理が発生すれば、メモリサイズは増し、ストレージの条件はさらに厳しくなります。何より、AI固有のアプリが書き込まれる度に、より高速の記憶性能へのニーズは飛躍的に増します。

小さい実装面積で高密度、大容量が必要なモバイル機器においては、3D NANDが頼りのストレージソリューションとなってきています。最新の64層3D NANDでは、データ記憶素子の層を縦積みすることで、従来の2D平面NANDテクノロジーよりも最大で6倍容量のストレージデバイスを作り出しています。

さらに、最新の3D NANDメモリデバイスでは、高性能UFSメモリインタフェイスを使って、前世代のe.MMC 5.1インタフェイスよりも高速のランダム読込速度で同時にリード/ライトコマンドが可能になっています。この3D NANDシリコンと高速UFSインタフェイスの組み合わせにより、小さなダイ面積のストレージが増え、大幅なコスト削減、電力使用量の減少、そしてAI搭載のモバイルデバイスを支える高性能が実現します。

輝く未来

スマホのスマートアシスタント機能は、データの流れの中から高速かつ正確な判断を行わなければなりません。低速ストレージや低速メモリであることは、つまりAIの訓練性能が遅いことを意味し、待機時間が長くなったりバッテリの消耗が早くなったりする原因となります。そんな中、メモリとストレージの革新により、より高速の出入力操作やリアルタイムに近いAI計算が可能となることで、これらのAIエンジンでますます増えるデータ需要に対応し、ユーザー体験が向上するというのは朗報です。

+