パーソナライゼーションはエンゲージメントの「究極の目標」です。それは何も不思議なことではありません。ハーバードビジネスレビューによると、パーソナライズされたユーザーエクスペリエンスは、マーケティングへの投資の5倍~8倍もの投資効果をもたらし、売上を10%以上も向上できるそうです。
パーソナライズされたコンテンツはより深い関係を築き、ユーザーの理解を深めることができる一方、効果的なレコメンデーションを作成するには膨大なデータが必要となります。そこで登場したのが、先進的なデータセンターのインフラストラクチャと、高性能メモリおよびストレージソリューションを備えた人工知能(AI)エンジンです。
このようなレコメンデーションエンジンは、今やオンラインエクスペリエンスを方向付けています。その最たる例はアマゾンです。マッキンゼーの報告によると、巨大小売業者であるアマゾンの売上の35%以上はレコメンデーションによるものだそうです。しかも、このようなエンジンが威力を発揮しているのは、ショッピングだけではありません。ストリーミングサイトではユーザーが興味を持ちそうな映画や番組を、求職サイトではユーザーの資格に応じた求人を、そしてニュースおよびソーシャルフィードには関連コンテンツを表示します。
ストリーミングでは、Netflix®ユーザーの4人中3人がレコメンデーションエンジンに推薦された映画を選び、Netflixの合計ストリーミング時間の80%がこれらの推薦によるものです。Hulu™などのサービスでは、おすすめ番組をユーザーがより自由にコントロールできるよう「好き」「嫌い」機能が組み込まれています。
その裏では、データセンターが高度にパーソナライズされたインターネットを創出しています。そのアルゴリズムは非常に洗練されており、推薦がユーザーエクスペリエンスとなっています。他の先進テクノロジーと同じく、レコメンデーションエンジンはマイクロン製品のようなメモリ&ストレージソリューションなしでは導入不可能と言っても過言ではありません。
レコメンデーションエンジンとは?
レコメンデーションエンジンとは、簡単に言えば、ユーザーがアイテムに与える「評価」や「嗜好」に基づいて情報を提案するシステムです。
レコメンデーションエンジンは、まさに必要に迫られて生まれたものです 私たちは毎日250京バイトものデータを生成しています (京は兆の1万倍です)。また、世界中のデータの90%は過去2年間で作成されています。Facebook®とWhatsApp™だけで、1日に600億件ものメッセージを処理し、Instagram™には毎日9500万枚を超える画像がアップロードされています。
取捨選択する情報は膨大にあります。しかも数だけではなく、種類や品質も多種多様なのです。目を皿のようにしてeコマースのサイトを探しても、表示される商品に興味が湧かない、あまり関係がないと感じた経験は誰にでもあるはずです。
推薦されるコンテンツが良いものでないとしたらどうでしょう。どうしてそのようなことが起こるのでしょうか。
すべてはデータ次第です。レコメンデーションエンジンの場合、データが多いほど、結果は正確になります。表示される推薦は、次のいずれかの方法でフィルターされています。
- ジェネリック:ユーザーが検索したものと類似しているアイテム、または最も人気のあるアイテムを特定する。
- コンテンツ:ユーザーの履歴を分析し、選択肢を説明するキーワードを特定し、類似したコンテンツを提案する。
- コラボレーティブ:ユーザーの履歴に基づいてユーザーをグループに割り当て、グループの他のメンバーが「いいね!」を押したアイテムが表示される。
- ハイブリッド:このアプローチは複数のフィルターを組み合わせて使用する。
これらのフィルターは、それぞれが複雑化しています。ハイブリッドが最も正確である一方、膨大なデータ量を必要とし、実行が最も難しいアプローチです。
ストリーミングメディアの場合、正確な推薦をするには、映画のジャンル、あらすじ、俳優、監督に関するデータ、ユーザーの視聴履歴と、同じ映画を気に入った大勢のユーザーの履歴データがエンジンに必要です。また、映画の評価、ソーシャルメディアのコメント、脚本のセリフまでレイヤーに含めます。これは膨大なデータ量になるので、このようなワークロードを処理するには大容量のメモリとストレージが必要です。
1. データ収集
最適な推薦には膨大のデータが必要になります。さまざまなデータソースからフィルターされた数十億のユーザーインタラクションが同時に収集されます。このデータ収集には、クアッドレベルセル(QLC)SSDのようなスケーラブルなストレージ容量が必要です。QLC NANDメモリで構築されているSSDは、容量、速度、コストのバランスがよく、クラウドプロバイダーの総所有コストの削減につながります。
2. フィルタリングと前処理
機械学習システムは、数百万人の顧客の履歴と行動を保持しており、システムは常に更新されています。通常、このデータは構造化されていない形式で取り込まれるため、データを使用する前に、まずフィルタリングして抽出することで重要情報だけに絞り込み、効率的に整理する必要があります。構造化されていないデータから必要なデータポイントを見つけるのは、人気の絵本「ウォーリーを探せ!」のように、滑稽な状況でさまざまな動きをしている人混みの中からウォーリーを見つけ出すようなものです。ウォーリーは見つけてもらえないかもしれません。では、ウォーリーの周りの人々がみんな直立不動で、グリッドのパターンに分類されていれば、どうでしょう。面白味はなくなりますが、ウォーリーは簡単に見つかるでしょう。データのフィルターと前処理は基本的に、動いている群衆の無秩序な状態を整然とした列とグリッドに並べることです。データの組織化はCPUで解決できる問題で、DDR5などのサーバー向けDRAMでサポートされています。前処理の間、データは一時的にDRAMに保存され、プロセッサーに高速フィードされます。処理され、構造化されたデータは高速NVMe™ SSDに保存され、それがAIのトレーニングに使用されます。
3. 学習
ここではAIがエンジンにコンテンツを認識するようにトレーニングします。たとえば、システムが犬の認識方法を学習するまで数十億の画像を分析する場合もあります。この場合、数百回~数千回とトレーニングシステムにデータを渡す必要があります。新しいデータが投入されてユーザーが操作すると、更新されたデータベースで定期的にモデルを再トレーニングします。このプロセスには、複雑なトレーニングアルゴリズムを実行する、きわめて強力で柔軟性のあるデータセンターが必要です。マイクロンの超広帯域ソリューションファミリーのような広帯域幅メモリが、グラフィックプロセッシングユニット(GPU)またはCPUにデータを何度も超高速でフィードします。これによって論理的結合が起こり、AIのアルゴリズムが作成されます。データ量が増加し、AIのアルゴリズムが複雑化するにつれて、トレーニングプロセスのメモリの需要は増え続けます。しかし、必要なのはメモリの増設だけではありません。よりスマートで高速なAIをもたらす新しいメモリ、つまり1配線あたり1ビットではなく、たとえば2ビットの情報を動かす新しいメモリ、または同じチップパッケージ内でCPUに近接配置した3次元積層のメモリが必要です。マイクロンは業界の最前線で次世代メモリの技術革新を推進しています。
4. レコメンデーション(推薦)
次は推論です。トレーニングされたシステムに、犬が映画に登場するかどうかを尋ねます。犬を認識すれば、推薦ができます。これは、さまざまなユーザーで1分間に数百回行い、データセンターまたはユーザーの近く、場合によっては電話やノートパソコンで実施されます。高性能なメモリがあれば、ユーザーにとって意味があり、プロバイダーにとって収益性のある推薦を迅速に実行できます。
5. 最適化
ユーザーと推薦とのインタラクションは再度データ収集フェーズにフィードされ、今後の推薦に向けて最適化されるので、エンジンが学習して精度が高まります。
レコメンデーションエンジンのプロセスの各フェーズで、メモリとストレージは重要な役割を果たします。データを取り出して移動する時間を短縮し、処理装置を必要なデータで満たし、日々生成される膨大な量のデータを保存します。マイクロンが生産するような製品がなければ、レコメンデーションエンジンの作成は不可能でしょう。
レコメンデーションエンジンの未来
レコメンデーションエンジンは、オンラインサービスのユーザーエクスペリエンスとビジネスモデルに変革をもたらしました。サイトがプラットフォームに推薦機能を取り入れる新たな方法を模索しているのも頷けます。
たとえば、アマゾンの機械学習科学者であるベン・アリソン氏は、過去のユーザーイベントの重要性は等しいわけではないと指摘しています。アマゾンでは、顧客の行動は非常に複雑であることを理解した上で、過去の行動の重要性(コンテキストや時間に基づく)をニューラルネットワークに判断させ、それに対して「アテンションスコア」を割り当てています。このようなアテンションスコアが、より洗練されたレコメンデーションアルゴリズムで重要な役割を担っています。
さらにアマゾンでは、「予測可能な」予測は、実際には理想的ではないことも学習しました。一定の「ランダム性」を加味することで、どの買い物客も望む「偶然の発見」を再現できるようにしました。そのため、アマゾンの推薦は、ありきたりな予測ではなく、AIによる「意思決定」に基づいているのです。
サイトによっては、人間のエディターがリアルタイムでレコメンデーションエンジンを操作して、アルゴリズムの精度を上げています。たとえばHulu™では、「コンテンツ専門家チームが連携し、視聴者に合わせて厳選した作品を追加で紹介しています」。
また、Netflixではレコメンデーションアルゴリズムを使用して成功するコンテンツの特徴を学習し、映画やテレビ番組のカタログを設定しています。「私たちは、急成長しているNetflixスタジオでオリジナルの映画やテレビ番組の制作を最適化するために利用しています。また、Netflixの新規会員を開拓できるように、広告費、チャネルミックス、広告クリエイティブにも力を入れています」
現在と将来のレコメンデーション機能にとって、データ量と速度の最大化は不可欠です。データストレージ、AIトレーニング、レコメンデーションエンジンの推論には、高性能・低電力のメモリとストレージが必要です。
マイクロンの幅広いソリューション ポートフォリオは、集中トレーニング用の広帯域幅メモリとアクセラレーターから、推論用の標準メモリ、各種データ用の大容量ストレージに至るまで、レコメンデーションエンジンの要件をすべて揃えています。買い物客に完璧なクリスマスプレゼントが提案され、視聴者に最適な番組が提案された場合は、その過程でマイクロンのメモリとストレージが関わった可能性が高いと考えられます。
レコメンデーションエンジンを実現するマイクロン製品の詳細については、こちらをご覧ください。
マイクロンはMicron Technology, Incの登録商標です。この記事に記載されているその他のすべての商標および登録商標は、それぞれの所有者に帰属し、参考までに含まれています。その他の商標と登録商標、またはブランドが含まれていても、マイクロンによる推奨や宣伝には当たらず、必ずしも取引関係を示唆しているわけではありません。