片手で持つことのできるインテリジェンスの量は、どれくらいでしょうか? 膨大な量です。
2017年は、ついにスマートフォンに人工知能(AI)が搭載された年でした。スマートフォンが接続しているクラウドだけではなく、スマートフォン自体にも人工知能が導入されるに至ったのです。
オンデバイスのAIエンジンを搭載したこれらのスマートフォンは、各種センサーからデータを取り込んだ後、デバイス上での保存や計算をローカルで効率よく実行するように設計されています。顔認識、アクティビティ予測、拡張データ暗号化などのタスクを実行するこれらのスマートフォンは、余分に必要となるストレージや演算能力と、サイズの制約、コスト効率、バッテリー電力との折り合いを付ける必要があります。これらのスマートフォンに搭載されるAIチップは、ローカルデータから迅速かつ正確に判断を導き出すことが可能でなければなりません。そのため、より高速で革新的なシステムメモリおよびストレージに依存することになります。
AIスマートフォンの実際のユースケース
最新のスマートフォンで提供される、強化された画像処理、聴覚処理、音声処理能力に立脚した、新しいユーザーエクスペリエンスがすでに出現しています。言語処理、ヒューマンアクティビティ予測、拡張データ暗号化など、スマートフォンAIの新しいユースケースを支えるアプリが、エクスペリエンスの新たな波になると予測されます。
顔認識によるユーザー認証が定着した現在、オンデバイスAIの活用によって、より複雑でありながらも、より安全で利便性の高いユーザー認証が実現されることになるでしょう。たとえば以前は、写真を使って顔認証を欺くことが可能でした。今では、複数の3Dデプスセンサーと赤外線カメラを使用することで、スマートフォンのユーザー認証が、より安全かつ迅速に実行できるようになっています。
オンデバイスAIを利用した自然言語翻訳により、大部分のスマートフォンにすでに搭載されている音声認識も強化される可能性があります。さらに、ローカルでの分析と処理により、スマートフォンとのチャット会話を通じて意図予測が用いられ、スマートフォンをより応答性の高いものにすることが可能です。人の行動を予測したうえで、スマートアシスタントが特定のアクションや購入を提案します。今後のスマートフォンアプリでは、ある種のバイヤー支援機能がクラウドベースのボットからスマートフォン本体に移行され、より高速で安全になることは確実です。
クラウドベースAIとオンデバイスAIの統合によって、ユースケースの範囲がさらに広がることも予測されます。一例を挙げると、カリフォルニア大学バークレー校には、MyShakeという地震警告アプリがあります。このアプリは、スマートフォンの加速度計センサー(スマートフォンを横向きにしたときに画面を調節するもの)とGPSを利用して、どれほどの揺れがその場所で起こっているかを計測します。近くにいる他のMyShakeユーザーからのレポートを収集し、クラウドで総合的な分析を行うことにより、このアプリケーションは個人向けの地震計になると同時に、早期警告システムにもなります。
学習マシンとしてのスマートフォン
ローカルなオンデバイスAIへの転換を促進している要因は、新しい特化型のAI処理チップです。これは技術的にはAIというより機械学習です。機械学習はAIのサブセットであり、時間の経過とともにマシン自身による自動的な学習を支援するテクノロジーです。手作業でのプログラミングを必要とせず、さまざまなタイプのデータに反応することにより、最終的に反復可能なパターンを作成します。ニューラルネットワークシステムは、このような機械学習アプリケーションによるデータの分類を支援し、コンピューターによる迅速なデータの分類を可能にします。2017年、エンジニアたちは新しいAIコンポーネントをシステムオンチップ(SoC)に追加することにより、「スマート」なAI支援タスクのパフォーマンスと効率性を高め、コスト、電力、サイズともに有効なものにする方法を習得しました。
AIによってモバイルデバイスのサイズと電力に関する課題が加速
スマートフォン部品のうち、最も消費電力が大きいのはCPU/GPU、ディスプレイ、そしてメモリです。今は、新しいAIエンジンに必要な電力も加わるようになりました。よりピクセル数の大きいディスフレイと、それを支える大容量メモリに対するコンシューマー需要によって、負荷がさらに増大しています。こうした事情から、バッテリー駆動時間はメーカーにとって引き続き大きな懸念事項です。
今年後半には、一部の都市で商用5Gネットワークサービスが開始されます。このようにユビキタスな超高速ワイヤレス接続の未来は、既存の4Gネットワークと比べて最大50倍速いスループットと、4Gネットワークの少なくとも5分の1に短縮されたレイテンシーを実現し、マルチメディアおよびビデオエクスペリエンスの驚くべき可能性を解き放つことになるでしょう。モバイルデバイスには、消費電力やフットプリントを増やすことなく、速度やストレージの要件に対応できる、洗練されたメモリサブシステムが必要ということになります。
専用AIエンジンで必要となる処理
ローカルでのAI処理によって、必要なメモリ量が増加し、ストレージ所要量も増加します。さらに重要なポイントとして、AIに特化したアプリケーションが多く出現するにつれ、より高速なストレージパフォーマンスへの需要が飛躍的に増大します。
省スペースかつ高密度・大容量が要求されるモバイルデバイス用のストレージソリューションとして、3D NANDが主流になりつつあります。最新の64層バージョンの3D NANDでは、データストレージセルの層を垂直にスタックすることで、レガシーの2D平面NANDテクノロジーと比べて最大6倍の容量のストレージデバイスが成立しています。
さらに、最新の3D NANDメモリデバイスでは、高性能なUFSストレージインターフェイスが採用され、前世代のe.MMC 5.1インターフェイスよりも高いランダム読み取り速度で、読み取り・書き込みコマンドを同時に実行可能です。3D NANDシリコンと高速なUFSインターフェイスの組み合わせにより、小さいダイ面積で大容量のストレージが実現され、AIを搭載したモバイルデバイス向けに大幅なコスト削減、低消費電力、高性能がもたらされます。
輝く未来
スマートフォンに搭載されたスマートアシスタント機能は、迅速でありながらも正確な判断をデータフローから導き出さなければなりません。低速なストレージやメモリは、低速なAIトレーニングパフォーマンスにつながり、スタンバイ時間を長引かせ、バッテリーを速く消耗させます。喜ばしいことに、メモリとストレージのイノベーションにより、I/O動作の高速化とリアルタイムに近いAI計算が実現され、増大しつつあるAIエンジンのデータニーズを満たし、強力なユーザーエクスペリエンスを成立させることが可能になっています。